Эксперт Рыбников: использование ИИ требует особого внимания к защите данных

Фото: istockphoto / WANAN YOSSINGKUM

Безопасность становится ключевым вопросом на фоне быстрого развития генеративного ИИ и отсутствия единых международных стандартов регулирования, заявил в интервью RT старший преподаватель кафедры инструментального и прикладного ПО РТУ МИРЭА Андрей Рыбников.



По его словам, научные исследования показывают, что модели искусственного интеллекта подвержены атакам, в результате которых возможно извлечение обучающих данных. Особенно уязвимыми оказываются системы, обученные на открытых источниках без строгой фильтрации, а также те, которые продолжают обучение на пользовательских запросах.

Эксперт напомнил, что в России действует закон №152-ФЗ «О персональных данных», запрещающий передачу таких данных третьим лицам без согласия пользователя. В связи с этим онпризвал с осторожностью использовать зарубежные ИИ-платформы без прозрачной политики хранения данных.

Наименее рискованным он назвал использование локальных ИИ-моделей, работающих без подключения к облаку. В иных случаях стоит выбирать корпоративные версии сервисов и вручную удалять чувствительную информацию из запросов.

Особое внимание, по словам эксперта, следует уделять атакам через скрытые подсказки — способам внедрения вредоносных команд в запросы, способных изменить поведение модели или получить доступ к данным.

«Такие атаки нацелены не на пользователя, а на саму систему, и предотвратить их — задача разработчиков сервиса. Однако пользователь может косвенно защитить себя: использовать платформы с встроенной фильтрацией, не загружать конфиденциальные документы и избегать работы с подозрительными шаблонами», — объяснил Рыбников.
Кроме того, он отметил, что даже офлайн-ИИ-программы могут сохранять локальную историю запросов и временные файлы. Он посоветовал регулярно очищать кеш и использовать шифрование файловой системы, а также ограничивать доступ к ИИ-приложениям с помощью пользовательских прав.

Что думаешь?

0 0 0 0 0 0