Стало известно, как нейросети создают фейковые новости

Эксперт цифровой экономики Рафиков рассказал, в чём опасность нейросетей и дипфейков

Фото: iStock.com/gorodenkoff
Читайте нас в: Google Новости
Нейросети развиты сейчас до такой степени, что способны создавать дипфейки знаменитых людей из нескольких фотографий и записи голоса. Об опасности новых технологий рассказал эксперт цифровой экономики Рустам Рафиков.

Дипфейки - это способ создания искусственным интеллектом видео с внешностью и голосом знаменитостей, которые по сути являются подделкой. По словам Рафикова, людей, незнакомых с цифровыми технологиями, фейковые материалы нейросети могут ввести в заблуждение. Например, когда от лица главы государства в Сети распространяются ролики с заявлениями, которых на самом деле не существовало.

Рафиков в беседе с «Вечерней Москвой» напомнил о дипфейке с актёром Леонардо Ди Каприо, который говорит на русском языке и танцует на Красной площади. Количество просмотров под роликом превысило три миллиона, а комментаторы всерьёз поверили, что артист приехал в Россию отметить свой день рождения.

Ранее сообщалось, что диалог Макрона с ChatGPT рассмешил пользователей Twitter.

Автор: Андрей Гаврилов

Полная версия