Подросток со смартфоном. Архивное фото
МОСКВА, 23 мая – РИА Новости. К странным голосовым сообщениям даже от друзей или родственников нужно относиться критично, сообщил член комитета ГД по информполитике Антон Немкин.
«Кибермошенники сегодня стали использовать искусственный интеллект и дипфейки, чтобы выдавать себя за других людей в мессенджерах или социальных сетях. Поэтому к любым сообщениям со странными просьбами, даже полученными от руководства, родственников или друзей, стоит относиться критично… В сети уже распространялось фейковое аудиосообщение от имени пресс-секретаря президента Дмитрия Пескова, которое правда сразу компрометировало себя наличием мата и странных высказываний. Однако это в очередной раз доказывает, что мошенники сегодня способны на многое», — сказал он РИА Новости.
Депутат отметил, что нейросети в целом помогают мошенникам автоматизировать фишинговые кампании и поставить их на поток, чтобы атаковать большее число «жертв».
«Одним из распространенных сценариев является создание поддельных видеороликов с известными личностями или доверенными лицами. Эти видео могут быть использованы для распространения ложной информации или провокации действий, которые наносят ущерб как частным лицам, так и организациям», — добавил парламентарий.
Как отметил Немкин, поддельное видео с политиком или бизнес-лидером, могут привести к повышению социальной напряженности – например, если дипфейки будут использоваться в политических целях. Он напомнил про один пример с прошлого года, когда видеоролик с «обращением» президента России Владимира Путина, который транслировали ряд телеканалов и радиостанций, был подготовлен при помощи технологии дипфейк с использованием замены лица.
«В записи, которая выдавалась за выступление президента, был сделан ряд серьезных заявлений – если бы их распространение не удалось вовремя пресечь, последствия такой преступной выходки хакеров могли бы быть крайне масштабными», — отметил депутат.