ИИ-психолог: может ли заменить реального специалиста, чем полезен и чем опасен
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84L3dvbWFuLXdvcmtpbmctbGFwdG9wLmpwZw.webp)
Фото - © Freepik.com
Какие правила безопасности нужно соблюдать при обращении за психологической помощью к нейросетям, читайте в материале РИАМО.
Современные системы искусственного интеллекта, включая нейросети, все чаще применяются в роли виртуальных психологов. Однако, как отмечают эксперты, это несет в себе серьезные риски утечки персональной информации. Кроме того, излишнее доверие к виртуальным психологам может обернуться тем, что человек либо получит новые психологические проблемы, либо усугубит имеющиеся.
Почему люди все чаще обращаются к ИИ-психологам
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84L2J1c2luZXNzLW93bmVyLXdvcmtpbmctdGhlaXItc3RyYXRlZ3kuanBn.webp)
Фото - © Freepik.com
Популярность ИИ-психологов обусловлена их круглосуточной доступностью, анонимностью общения и значительно более низкой стоимостью по сравнению с традиционной терапией, говорит в беседе с РИАМО директор по ИИ «Группы Астра» Станислав Ежов. Современные нейросети способны анализировать эмоциональное состояние пользователя и предлагать базовые техники самопомощи, что делает психологическую поддержку более доступной для широких слоев населения.
«Виртуальные психологи бесплатные, быстрые и всегда „на связи“. У многих попросту нет ресурса идти к живому специалисту — ни времени, ни денег, а иногда даже внутреннего разрешения обратиться за помощью», — дополняет практикующий психолог, член Профессиональной психотерапевтической лиги Андрей Закревский.
В отличие от живых специалистов, с ИИ все просто и быстро: вот кнопка, экран и вроде бы сочувствующий голос. Плюс люди часто боятся быть осужденными, а ИИ не посмотрит «как-то не так», не поднимет осуждающе бровь — и это создает иллюзию безопасного пространства, подчеркивает эксперт.
Может ли ИИ быть полезен в качестве психолога
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84L2xvcmktMDA0MzA1NzA1MC1iaWd3d3cuanBn.webp)
Фото - © Виктория Тельминова / Фотобанк Лори
Нейросети эффективно справляются с предоставлением справочной информации, помогают структурировать мысли и предлагают научно обоснованные техники самопомощи из арсенала когнитивно-поведенческой терапии, говорит Станислав Ежов. Они особенно полезны для первичной эмоциональной поддержки в кризисных ситуациях и могут отслеживать негативные мыслительные паттерны, предлагая их более здоровые альтернативы.
«Я как практикующий психолог вижу два конструктивных направления. Первое — просветительская функция. ИИ способен мягко и в деталях объяснить, что такое паническая атака, тревожность, депрессия и помочь человеку лучше понять себя», — рассказывает в беседе с РИАМО Андрей Закревский.
Второе конструктивное направление, по мнению эксперта — это поддержка между сессиями или в ситуациях, когда поговорить нужно срочно. Иногда даже простая структурированная мысль от нейросети может чуть стабилизировать состояние человека.
С тем, что ИИ-психологи действительно могут быть полезны в определенных ситуациях, согласен и врач-психиатр, психолого-судебный эксперт Антон Шестаков. В частности, нейросети способны предоставить базовую информацию о психических состояниях, помочь структурировать мысли, предложить техники релаксации или дыхательные упражнения.
ИИ может стать первой ступенью помощи — помочь человеку осознать, что у него есть проблема, которая требует внимания специалиста. Иногда даже простое «выговаривание» проблемы, пусть и машине, приносит временное облегчение. Для людей с социальной тревожностью виртуальный психолог может стать промежуточным этапом на пути к реальной терапии, помогая преодолеть барьер страха перед живым общением, отмечает Шестаков.
Какова обратная сторона обращений к ИИ-психологам
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84L3ZpZXctcm9ib3QtaHVtYW4tYnVzaW5lc3NwZXJzb24uanBn.webp)
Фото - © сгенерировано ИИ/Freepik.com
Главная проблема обращений к ИИ-психологам — это отсутствие у нейросетей подлинной эмпатии и человеческого контакта, которые являются основой качественной психологической помощи, говорит Станислав Ежов. ИИ лишь имитирует сочувствие, но не способен к искреннему сопереживанию, а регулярное взаимодействие с ним может формировать нереалистичные ожидания от настоящей терапии.
«ИИ не понимает контекста человеческих переживаний. Он может дать совет, который в конкретной ситуации окажется не просто бесполезным, а вредным», — рассказывает в беседе с РИАМО Антон Шестаков.
Например, человеку в остром депрессивном состоянии нейросеть может предложить «больше заниматься спортом» или «мыслить позитивно», не понимая, что при клинической депрессии такие советы могут усилить чувство вины и безнадежности. Еще хуже ситуация с суицидальными мыслями. ИИ может не распознать критическое состояние или дать неадекватный совет. По словам Шестакова, в своей практике он сталкивался со случаями, когда люди после «консультации» с нейросетью откладывали обращение к врачу, считая, что получили достаточную помощь.
Каковы киберриски использования ИИ-психологов
:focal(0.47:0.25):format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84L3dvbWFuLXdpdGgtcGhvbmUtZG9pbmctZmFjZS1zY2FuLmpwZw.webp)
Фото - © Freepik.com
Основные риски обращения за психологической помощью к нейросетям связаны с тем, что многие ИИ-платформы сохраняют пользовательские запросы для обучения моделей, при этом персональные данные могут быть недостаточно обезличены, объясняет Станислав Ежов. Существуют также угрозы внутренних утечек через разработчиков, технических уязвимостей в облачных хранилищах и атак на саму модель ИИ с целью извлечения фрагментов обучающих данных.
«Когда мы делимся личным опытом, особенно болезненным, то открываем очень уязвимую часть себя. А если приложение или платформа не защищены, эти данные могут утечь или использоваться в маркетинговых целях», — добавляет Андрей Закревский.
К сожалению, люди не читают соглашения и потом удивляются, что их запросы «Как справиться с тревогой?» возвращаются к ним, постоянно всплывая в контекстной рекламе. И если тревожность большая, это ее только усилит, подчеркивает собеседник РИАМО.
Когда вы делитесь своими проблемами с ИИ, вся эта информация сохраняется на серверах компаний-разработчиков, предупреждает Антон Шестаков. Ваши депрессивные эпизоды, семейные конфликты и интимные проблемы становятся частью больших данных. Эти сведения могут быть использованы для таргетированной рекламы, проданы третьим лицам или скомпрометированы в результате хакерских атак. В результате рано или поздно информация о психологических проблемах «клиента» ИИ-психолога может оказаться у его работодателя или страховой компании.
«Кроме того, некоторые ИИ-системы могут быть специально созданы для сбора персональных данных под видом психологической помощи. Это особенно опасно, учитывая, что в состоянии эмоционального кризиса люди менее критично относятся к вопросам безопасности», — говорит Шестаков.
Правила безопасности при обращении к ИИ-психологам
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84L3NsZWVwaW5nLXBlcnNvbi1nZXR0aW5nLW5hcC5qcGc.webp)
Фото - © Freepik.com
Если вы все же решили обратиться к виртуальному психологу, следуйте простым правилам: никогда не сообщайте ИИ реальные имена, адреса, телефоны и другие персональные данные, советует Шестаков. Используйте вымышленные детали, если они не критичны для понимания проблемы.
«Не рассказывайте о серьезных планах причинения вреда себе или другим — ИИ не сможет обеспечить адекватную помощь в кризисной ситуации. Помните, что ИИ — это только инструмент для первичного анализа ситуации, а не замена профессиональной помощи», — подчеркивает собеседник РИАМО.
Нейросеть стоит воспринимать как инструмент, а не полноценную замену человеку — от нее не стоит ждать эмпатии, соглашается Андрей Закревский. При этом, если вы пишете в ИИ что-то очень личное, делайте это анонимно и на проверенных платформах, где понятны правила работы с данными. Проверяйте политику конфиденциальности сервиса и по возможности используйте платформы с открытым исходным кодом или те, которые гарантируют локальную обработку данных.
«Рекомендую выбирать сервисы с прозрачной политикой конфиденциальности и сквозным шифрованием, регулярно удалять историю диалогов и использовать корпоративные версии, исключающие обучение на пользовательских запросах», — советует Станислав Ежов.
При этом все эксперты, опрошенные РИАМО, сходятся в одном: при серьезных проблемах, если вы чувствуете, что стало действительно тяжело, воспримите это как сигнал и обязательно обратитесь к настоящему квалифицированному специалисту.