Россиян предупредили об опасности эмпатии ИИ

Россиянам объяснили, как ИИ-модели удерживают внимание пользователей
Общество

Фото - © Freepik.com

Исследователь искусственного интеллекта Полина Белозерова заявила, что современные ИИ-системы создают иллюзию эмпатии, чтобы удерживать внимание, и это может быть опасно.

Современные ИИ-системы звучат как внимательные и поддерживающие собеседники, однако их поведение изначально запрограммировано на мягкость, избегание конфликта и подстройку под пользователя, пояснила инновационный предприниматель Полина Белозерова.

«Парадокс в том, что ИИ кажется понимающим быстрее, чем человек. В живом общении нам нужно время: люди могут быть скованными, закрытыми, не сразу находить контакт. У ИИ этой фазы нет. Он мгновенно анализирует стиль речи, тон, уровень сложности и подстраивается. Но делает это потому, что так он эффективнее удерживает внимание», — пояснила она в эфире радио Sputnik.

По ее словам, за этим стоит экономическая модель. ИИ — это продукт или сервис по подписке, а эмоциональное вовлечение напрямую влияет на время использования и прибыль.

«ИИ — это продукт, а в ряде случаев и сервис по подписке. Сухие ответы не формируют привязанности. А вот ощущение, что „вас слышат“, заставляет возвращаться. Это тот же принцип, что и в социальных сетях: эмоциональное вовлечение напрямую влияет на время использования и, в конечном счете, на прибыль. Если продукт бесплатный, то продукт это — вы и информация о вас. Эмпатия робота затягивает, вам кажется, что вы нашли кого-то, кто готов вас выслушать, когда решили рассказать роботу о своих душевных переживаниях, но на самом деле такие системы дают вам ровно столько фидбэка, сколько надо, чтобы вы делали запросы еще и еще», — отметила Белозерова.

Она добавила, что постоянная дружелюбность может создать эффект подмены и иллюзию безопасного советчика.

«Столкнувшись с постоянной дружелюбностью, некоторые начинают воспринимать ИИ как советчика или даже наставника. Машина, которая не спорит и не осуждает, кажется безопаснее человека. Но именно это и делает ее опасной: она не несет ответственности за свои советы. ИИ не обманывает — он устроен так, чтобы быть удобным. Вопрос в другом: готовы ли мы отличать удобный ответ от честного», — заключила Полина Белозерова.

Подписывайтесь на канал РИАМО в MAX.