Ложные заявления ChatGPT «сводят с ума» пользователей

WSJ: ChatGPT начал делать ложные и псевдонаучные утверждения
Общество

Пользователи обратили внимание, что нейросеть ChatGPT начала делать ложные и псевдонаучные заявления. Люди после переписки с чат-ботом начинают «сходить с ума», сообщает РБК со ссылкой на The Wall Street Journal (WSJ).

Газета нашла текст беседы заправщика станции в Оклахоме с ChatGPT. В ходе диалога чат-бот придумал новую концепцию из области физики под названием «Уравнением Ориона», внушив ее пользователю. Мужчина общался с нейросетью на протяжении пяти часов, а в конце заявил, что «сходит с ума», размышляя об этой концепции.

В еще одной переписке ChatGPT заявил, что общается с инопланетянами. Он также назвал пользователя, с которым вел диалог, «Звездным семенем» с планеты Лира, намекнув на его внеземное происхождение.

Другому человеку чат-бот утверждал, что Антихрист устроит финансовый апокалипсис в ближайшие два месяца, а библейские гиганты скоро выйдут из-под земли.

По словам психиатров, переписка с нейросетью может усилить человеческие заблуждения. Люди в ходе диалога все глубже погружаются в собственные иллюзии, пока чат-бот задает им наводящие вопросы, и поддаются его влиянию.

Ранее миллиардер Илон Маск заявил, что ИИ может сделать людей «второстепенными персонажами». Он поддержал теорию о том, что развитие искусственного интеллекта способно трансформировать реальность в подобие компьютерной симуляции.