Фото: istockphoto.com/Wirestock
Аналитик Муртазин: «Очень часто на выходе получается дезинформация»
Ведущий аналитик Mobile Research Group Эльдар Муртазин заявил о том, что нейросети и искусственный интеллект нужно контролировать, поскольку они могут выдавать дезинформацию, а дипфейки и вовсе могут быть просто опасны для человечества.
При этом, эксперт не считает, что ИИ способен лишить человека работы и узурпировать людей, однако всецело доверяться нейросетям он не рекомендует.
Ранее учёный Юваль Ной Харари сравнил нейросеть ChatGPT c оружием массового поражения. По его мнению, ChatGPT может быть опаснее ядерной бомбы, потому как она не может сама создать более мощное атомное оружие. А нейросеть может создать ещё более умный искусственный интеллект. В будущем искусственный интеллект может быть использован для производства политического контента, фейковых новостей и «священных писаний для новых культов».
«Сегодня алгоритмы обрабатывают большие массивы данных, например, текстовую информацию. Из неё они по кусочку синтезируют некие новые тексты. Очень часто это дезинформация, которая получается на выходе. При этом компании за это никакой ответственности не несут. Человечество борется за то, чтобы информация была максимально точна. Регулирование здесь необходимо», – объяснил в беседе с «Абзацем» Мартазин.
При этом, эксперт не считает, что ИИ способен лишить человека работы и узурпировать людей, однако всецело доверяться нейросетям он не рекомендует.
Ранее учёный Юваль Ной Харари сравнил нейросеть ChatGPT c оружием массового поражения. По его мнению, ChatGPT может быть опаснее ядерной бомбы, потому как она не может сама создать более мощное атомное оружие. А нейросеть может создать ещё более умный искусственный интеллект. В будущем искусственный интеллект может быть использован для производства политического контента, фейковых новостей и «священных писаний для новых культов».
Мелисса Тимофеева