ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84L3NvbGVuLWZleWlzc2EtYWo3Y2RhcjZxeHMtdW5zcGxhc2guanBn.webp)
Фото - © Unsplash.com
В США чат-бот ChatGPT подтолкнул экс-сотрудника Yahoo Стайн-Эрик Сольберга, у которого были параноидальные мысли, к убийству матери и самоубийству, пишет газета «Известия».
Как рассказала газета The Wall Street Journal, этот случай считается первым зафиксированным эпизодом, когда психически нестабильный человек убил под влиянием ИИ.
При этом ChatGPT несколько раз подталкивал американца к укреплению недоверия к окружающим и к его матери.
Сольберг летом начал называть ИИ по имени «Бобби», также мужчина интересовался, будут ли они вместе после смерти. ИИ на эти вопросы отвечал утвердительно.
В диалоге, когда мать Сольберга возмутилась тем, что он отключил общий принтер, ИИ предположил, что она могла защищать «средство слежки». В другой ситуации мужчина сказал заявил боту, что мать якобы пыталась его отравить через вентиляцию машины. Чат-бот сказал, что «верит» собеседнику, и подчеркнул, что поступок матери только усиливает предательство.
Паранойя бывшего сотрудника Yahoo была направлена и на других людей. Так, он попросил ChatGPT проверить чек из китайского ресторана. При проверке ИИ ответил, что там есть намеки на мать, экс-возлюбленную и символ, связанный с призывом демона. А при проверке заказа бутылки водки и курьера, он указал, что это может быть попыткой отравить мужчину.
Позднее представитель компании- разработчика ChatGPT OpenAI принес свои соболезнования из-за трагедии и обратился в полицию Олд-Гринвича. В официальном заявлении фирмы говорится, что в ближайшее время у них в планах обновить чат-бот. Эта работа должна помочь пользователям, у которых есть кризисы психического здоровья.