Мошенники начали оживлять фотографии и создавать видео с дипфейками ради денег

В России мошенники активно применяют технологии искусственного интеллекта для создания дипфейков знакомых и родственников своих жертв. «Родные» якобы просят дать денег взаймы. Об этом сообщает РИА Новости со ссылкой на материалы МВД.
Правоохранительные органы поясняют, что преступники используют нейросети для генерации видео, воспроизводящего мимику, голос и эмоции человека на основе одной фотографии. Как правило, «аватар» просит занять деньги.
После создания такого ролика злоумышленники рассылают его близким и друзьям человека.
В качестве защитной меры специалисты рекомендуют всегда перезванивать отправителю ролика по известному номеру телефона. Следует проверить, сумеет ли «родственник» повторить свою просьбу о переводе средств, также желательно узнать причину, по которой «родне» потребовалась запрашиваемая сумма денег.
Такой проверочный звонок помогает быстро выявить, что аккаунт человека взломали. Читайте также:
Россиянам напомнили, какие виды пенсий вырастут в 2026 году
МЧС: На Сахалине в селе Колхозное начали эвакуацию местных жителей из-за подтопления
Юрий Антонов выступил на сцене «Новой волны» после новостей о госпитализации — видео