Немкин в беседе с РИА Новости предупредил, что мошенники уже умеют использовать искусственный интеллект и дипфейки, чтобы выдавать себя за других людей в мессенджерах или соцсетях.
«Поэтому к любым сообщениям со странными просьбами, даже полученными от руководства, родственников или друзей, стоит относиться критично… В сети уже распространялось фейковое аудиосообщение от имени пресс-секретаря президента Дмитрия Пескова, которое правда сразу компрометировало себя наличием мата и странных высказываний», — сказал эксперт.
Парламентарий отметил, что нейросети в целом помогают аферистам автоматизировать фишинговые кампании и ставить их на поток, чтобы атаковать сразу много «жертв».
Депутат добавил, что часто злоумышленники создают поддельные видео с известными личностями или доверенными лицами. Эти кадры они затем могут использовать для распространения недостоверных сведений или провокации действий, которые могут нанести ущерб как частным лицам, так и организациям.
Он также привёл в пример с 2023 года, видеоролик с «обращением» президента РФ Владимира Путина, который транслировали некоторые телеканалы и радиостанции, подготовили при помощи технологии дипфейк с использованием замены лица.
«В записи, которая выдавалась за выступление президента, был сделан ряд серьезных заявлений – если бы их распространение не удалось вовремя пресечь, последствия такой преступной выходки хакеров могли бы быть крайне масштабными», — отметил депутат.
Читайте также:
Слуцкий раскрыл, кто
экранизирует сериал о Жириновском
Патруль проехал по пляжу в Анапе и
возмутил туристов
Жителям освобожденной части Харьковской области начнут
выдавать российские документы