Так, теперь злоумышленники могут использовать дипфейки.
«Это метод, использующий ИИ для создания поддельных, но реалистичных видео- и аудиозаписей. Мошенники могут использовать эту технологию для создания видео, в котором, например, CEO компании якобы призывает к переводу средств на определенный счёт. Такая технология применяется для создания материала для шантажа», — пояснил в беседе с Газета.ру Избаенков.
Также мошенники могут имитировать голоса с помощью голосового фишинга. По словам эксперта, для обмана людей аферисты используют и автоматизированный.
Читайте также:
Россиянам рассказали
о новой схеме мошенничестваIT-эксперт Анисимова: Антиспам
распознаёт около 100 млн писем со спамом в сутки
Юрист Лисов объяснил, чем опасен
перевод на карту «денег из ниоткуда»