Эксперт предостерег о рисках утечки данных при использовании ИИ-психологов

Общество

Современные системы искусственного интеллекта, включая нейросети, всё чаще применяются в роли виртуальных психологов. Однако такие сервисы могут представлять серьёзные риски утечки персональной информации. Об этом в  интервью RT сообщил Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.

Силаев отметил, что многие ИИ-платформы сохраняют пользовательские запросы для последующего обучения моделей. Если данные не обезличиваются должным образом, откровенные разговоры, включая личные переживания и травмы, могут остаться в логах или даже попасть в открытые датасеты.

Уязвимости и доступ к данным

Кроме того, разработчики часто получают доступ к пользовательским данным для анализа и улучшения сервисов, что увеличивает риск внутренних утечек. Эксперт также подчеркнул, что технические уязвимости могут представлять опасность. Ошибки в настройке облачных хранилищ или API могут привести к тому, что переписки станут доступны для посторонних. Бывали случаи, когда из-за неправильной конфигурации базы данных информация становилась доступной в интернете.

Атаки на модели ИИ

Силаев также обратил внимание на возможность атак на саму модель искусственного интеллекта. Злоумышленники могут использовать специальные методы для восстановления отдельных фрагментов данных, на которых обучалась нейросеть, и частично реконструировать личные диалоги пользователей.

Классические угрозы

Не стоит забывать и о классических рисках, таких как фишинг и взлом аккаунтов. Если злоумышленник получает доступ к учётной записи, он может ознакомиться с историей переписки с ИИ-ассистентом.

Чтобы минимизировать возможные угрозы, Силаев рекомендует выбирать сервисы с прозрачной политикой конфиденциальности и сквозным шифрованием.