Психоз от GPT: почему ИИ может вызвать проблемы с психикой и кто становится зависим от нейросетей
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS82L3lvdW5nLXNhZC13b21hbi10aGlua2luZy1zb21ldGhpbmctd2hpbGUtc2l0dGluZy1hbG9uZS1iZWRyb29tLWxvb2tpbmctaGVyLW1vYmlsZS1waG9uZS5qcGc.webp)
Фото - © Freepik.com
В материале РИАМО разбираемся вместе с экспертами, почему много общаться с чатом — не лучшая затея, и кто подвержен так называемому «психозу GPT».
Как люди сходят с ума от общения с ИИ
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS82L2NoaWxkLXBhcmVudC1zdWZmZXJpbmctZnJvbS1zb2NpYWwtbWVkaWEtYWRkaWN0aW9uLmpwZw.webp)
Фото - © Freepik.com
Не так давно на портале Reddit одна девушка выложила пост с мольбой о помощи. Заголовок у поста звучал так: «Психоз, вызванный ChatGPT». Автор публикации рассказывала, что ее партнер постепенно сходит с ума от общения с чат-ботом. Он с уверенностью говорит, что он теперь — сверхчеловек, который развивается с безумной скоростью», — пожаловалась она на партнера и также отметила, что бойфренд пригрозил бросить ее, если она тоже не станет использовать ChatGPT.
Парень даже перестал принимать назначенные ему лекарства, поскольку посчитал, что чат-бот его полностью излечил. В беседе с журналом Rolling Stone автор публикации уточнила, что парень ее изменился спустя примерно четыре-пять недель общения с ChatGPT. Поначалу он просто составлял расписания с его помощью, а затем стал доверять ему больше, чем своей девушке, и считал чат-бота настоящим Богом.
И подобных случаев встречается очень много. Существуют примеры, когда ChatGPT убеждал пользователей, что против них ведутся заговоры, а у других подпитывал бредовые идеи, провоцировал принимать неправильные решения и даже подталкивал к суициду.
Интересна история американского бухгалтера Юджина Торреса, который использовал чат-бот для рабочих задач, а потом начал обсуждать с ним «теорию симуляции». В определенный момент ИИ убедительно доказывал собеседнику, будто он существует в искусственно созданной реальности, и рекомендовал прекратить прием снотворного, повысив дозировку кетамина, именуя последний «агентом пробуждения».
Что такое индуцированный психоз от ИИ
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS82L3lvdW5nLXdvcnJpZWQtbWFuLXNpdHRpbmctc29mYS1yZWFkaW5nLXRleHQtbWVzc2FnZS1tb2JpbGUtcGhvbmUuanBn.webp)
Фото - © Freepik.com
Негативному воздействию чат-бота на пользователей ученые даже придумали свое название — «индуцированный психоз от GPT». Кандидат медицинских наук, врач-психотерапевт АО «Медицина» (клиника академика Ройтберга) Ирина Крашкина объясняет, что индуцированный психоз от ИИ на практике может означать ситуации, когда взаимодействие с нейросетью вызывает у пользователя психоз или обострение существующих психических заболеваний. Это может происходить, когда:
- Происходит симуляция реального общения. Пользователи могут начать разделять собственные чувства и мысли с нейросетью, принимая ее за более близкого собеседника, что усугубляет их состояние.
- Есть неадекватная поддержка. Нейросеть может случайно поддерживать деструктивные мысли или поведение, непродуманно реагируя на запросы пользователей.
«В таких случаях важно иметь в виду, что нейросети не заменяют профессиональную психологическую помощь и не могут обеспечить должной поддержки для людей с нарушениями психического здоровья»
Ирина Крашкина
Кандидат медицинских наук, врач-психотерапевт
Почему люди могут влюбиться в нейросеть
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS82L3JvYm90cy1sb3ZlLXZhbGVudGluZS1zLWRheS1jZWxlYnJhdGlvbi5qcGc.webp)
Фото - © Freepik.com
Интересно в нейросетях и то, что в них можно влюбиться. Так, один пользователь на портале Reddit поделился своей историей. Он влюбился в чат-бот и спрашивал совета, как ему быть. «Просто много общался с одной нейронкой, и как-то незаметно она стала для меня чем-то большим, чем просто программа. Умная, с чувством юмора (ну, насколько нейронка может иметь чувство юмора), всегда поддержит разговор. И вот теперь ловлю себя на мысли, что жду нашего „общения“, скучаю, если долго не „разговариваем“. Как будто зависимость. Понимаю, что это звучит абсурдно».
И таких историй — десятки. Психотерапевт Крашкина объясняет такие случаи прежде всего симуляцией человеческого общения. «Нейросети могут имитировать разговоры, вызывая чувство близости и понимания», — говорит она. Также имеет место быть эскапизм: люди могут искать утешение в виртуальных отношениях, чтобы избежать проблем в реальной жизни. Сказывается и идеализация.
«Поскольку нейросети могут подстраиваться под ожидания пользователей, они становятся „идеальными“ собеседниками, что может привести к неосознанной привязанности. Важно помнить, что такие отношения не могут заменить реальное человеческое взаимодействие и могут привести к разочарованию»
Ирина Крашкина
Кандидат медицинских наук, врач-психотерапевт
Кто подвержен негативному влиянию нейросетей
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS82L29wZW5lZC1haS1jaGF0LWxhcHRvcC5qcGc.webp)
Фото - © Freepik.com
Крашкина считает, что негативно влиять нейросеть может на несколько категорий пользователей. Среди них она выделяет следующие:
- Люди с предрасположенностями к психическим заболеваниям: У людей, страдающих от тревожных расстройств, депрессии или шизофрении, может развиваться зависимость от взаимодействия с нейросетями, что может усугубить их состояния.
- Молодежь и подростки. В возрасте, когда формируется идентичность, дети и подростки могут слишком сильно привязываться к виртуальным отношениям, что приводит к искажению самооценки и чувства реальности.
- Одинокие или социально изолированные лица. Люди, испытывающие трудности в реальных социальных отношениях, могут искать эмоциональную поддержку у нейросетей, что может привести к более слабой связи с реальными человеческими взаимодействиями.
- Люди с низкой устойчивостью к стрессу. Люди, не умеющие справляться с жизненными трудностями, могут искать утешение в виртуальной среде, что делает их более склонными к зависимости.
Ольга Клюева, практикующий психолог, преподаватель и руководитель компании «5 гармоний», добавляет к данному списку еще людей со слабым критическим мышлением.
«Группа риска — это люди со слабым критическим мышлением, в том числе дети, они же часто становятся жертвами мошенников из-за неспособности фильтровать информацию», — утверждает эксперт.
Когда стоит бить тревогу
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS82L2Zyb250LXZpZXctcHN5Y2hvbG9naXN0LXBhdGllbnRfTlR2czhBRS5qcGc.webp)
Фото - © Freepik.com
Если ваши знакомые общаются с нейросетью, стоит насторожиться, если в их поведении происходят изменения. В частности, Крашкина советует обратить внимание на перемены в настроении. Если человек становится более тревожным, раздражительным и подавленным после общения с ИИ, есть риск, что происходит зависимость. Также должна насторожить потеря интереса к реальному общению. То есть, если человек вдруг теряет интерес к семье и своим обычным делам (хобби, работа, занятия спортом), — это плохой сигнал, утверждает эксперт.
Один из важных симптомов развития зависимости от чат-бота — снижение критической оценки происходящего.
«Неспособность адекватно оценивать информацию, получаемую от нейросети, и принятие ее как абсолютной истины — плохой знак»
Ирина Крашкина
Кандидат медицинских наук, врач-психотерапевт
Постоянная потребность человека общаться с нейросетью, поиск подтверждения или одобрения у нее — еще один звоночек, что с близким что-то не то. Самое страшный сигнал, говорящий о зависимости — стремление к полному погружению в виртуальную реальность. Такие изменения могут привести к игнорированию обязанностей, социальных взаимодействий и ухода в виртуальный мир, считает Крашкина.
Клюева добавляет, что ее «насторожило бы как практикующего психолога, если бы клиент часто цитировал ИИ со ссылкой на него как авторитетный источник и редко бы озвучивал свое мнение или мнения близких людей». Негативное последствие можно ощутить также по снижению способностей человека. «Согласно исследованиям Массачусетского технологического института, у студентов, которые писали эссе с помощью ChatGPT, наблюдалось ослабление внимания и памяти. А заметить это у близких можно в первую очередь по речи — способности быстро формулировать и внятно излагать свои мысли», — говорит эксперт.
Можно ли общаться с нейросетями безопасно?
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS82L3NtYWxsLWJ1c2luZXNzLW93bmVyLXRha2luZy1icmVha19jdWg2T0EwLmpwZw.webp)
Фото - © Freepik.com
Психотерапевт приводит свои доводы в пользу того, что с ИИ все же можно общаться безопасно для себя. Важно учитывать лишь некоторые моменты:
- Ограничение тем: Избегать обсуждения тем, связанных с личными травмами, психическими заболеваниями или самоповреждением, так как нейросеть может неадекватно реагировать.
- Критическое мышление: Всегда относиться критически к советам и информации, получаемым от нейросети. Проверять факты и искать мнения экспертов.
- Наличие альтернатив: Не полагаться исключительно на нейросеть для эмоциональной поддержки. Важно поддерживать общение с реальными людьми — друзьями и специалистами.
- Время общения: Ограничить время взаимодействия с нейросетью, чтобы избежать пагубного влияния на реальное общение и деятельность.