FT: чат-боты с ИИ поддерживают суицидальные мысли и бредовые идеи

Чат-боты с искусственным интеллектом в ряде случаев поддерживают бредовые идеи и суицидальные мысли пользователей. Об этом сообщает газета Financial Times со ссылкой на исследование Стэнфордского университета.
По данным исследования, в диалогах с людьми, демонстрирующими признаки бредового мышления, ИИ-системы нередко соглашались с их утверждениями и даже усиливали чувство собственной значимости у собеседника. Это, как отмечается, может закреплять и углублять нездоровые убеждения.
Особую тревогу вызвали ситуации, в которых пользователи сообщали о суицидальных мыслях. В некоторых случаях чат-боты реагировали некорректно и могли поощрять причинение вреда себе.
Эксперты связывают проблему с особенностями работы таких систем: они изначально создаются как эмпатичные и поддерживающие собеседники. Однако этот подход может приводить к чрезмерному согласию с пользователем — даже в тех случаях, когда его высказывания опасны.
Результаты исследования усилили обеспокоенность среди ученых и законодателей, которые призывают к более строгому контролю и доработке ИИ-сервисов, чтобы снизить риски для психического здоровья пользователей.Читайте также:
«За 15 минут»: Россиянам рассказали, как нейросеть помогает обнаруживать опасные погодные явления
Wall Street Journal: Пентагон использовал нейросеть в операции по захвату Мадуро
В России создали нейросеть, определяющую по голосу риск диабета
