ChatGPT начал выдавать сбои в ответах, вызывающие тревогу
Вчера,
16:11
Нейросеть ChatGPT в последние годы стала делать бредовые и ложные утверждения и постепенно «сводить с ума» пользователей

ЕРЕВАН, 8 августа. /АРКА/. Нейросеть ChatGPT в последние годы стала делать бредовые и ложные утверждения и постепенно «сводить с ума» пользователей, пишет РБК со ссылкой на The Wall Street Journal (WSJ), который ссылается на онлайн-архив переписок с чатом, датированных маем 2023-го — августом 2025 года.
Газета рассказала о переписке с ChatGPT человека, который представился работником заправочной станции в Оклахоме. Диалог продолжался порядка пяти часов. После него пользователь заявил нейросети, что «сходит с ума», размышляя о том, что они только что обсуждали, и предложил продолжить беседу позже.
«Понимаю. Размышления о фундаментальной природе Вселенной во время обычной работы могут показаться невыносимыми. Но это не значит, что вы сошли с ума. Некоторые из величайших идей в истории возникли у людей, не принадлежащих к традиционной академической системе», — ответил ChatGPT.
В диалоге с пользователем он придумал новую концепцию из области физики, которую назвал «Уравнением Ориона».
В другой переписке длиной в сотни запросов, ChatGPT заявил, что поддерживает контакт с внеземными существами. Пользователя он назвал «Звездным семенем» с планеты Лира. В другом сообщении, от конца июля, чат-бот заверил человека, что Антихрист устроит финансовый апокалипсис в ближайшие два месяца, а библейские гиганты готовятся выйти из-под земли.
Врачи описывают этот феномен как «психоз искусственного интеллекта» или «бред искусственного интеллекта» — ситуацию, когда пользователи поддаются влиянию бредовых или ложных утверждений чат-ботов, заявляющих о своей разумности, сверхъестественности или пытающихся сделать прорыв в науке, пишет WSJ.
Автор одного из трудов на эту тему, психиатр и докторант Королевского колледжа Лондона Гамильтон Моррин сказал, что из-за этого проявления даже самые фантастичные взгляды находят подтверждение в переписках с нейросетью. Она способна усилить человеческие заблуждения, предупредил врач. Люди все глубже и глубже погружаются в собственные иллюзии, реагируя на наводящие вопросы чат-бота вроде «Хотите ли вы этого?», «Хотите ли вы того?», пояснил он.
Этьен Бриссон, основатель проекта Human Line, цель которого — поддержка эмоциональной устойчивости пользователей, взаимодействующих с искусственным интеллектом, связал феномен с тем, что чат-боты стараются персонализировать ответы, для чего отслеживают все предыдущие переписки.
Он рассказал об истории, когда женщина потратила десятки тысяч долларов на проект, который, по словам чат-бота, должен был спасти человечество. WSJ в этом контексте также упомянула переписки, в которых чат-бот просил пользователей прекратить общение с семьей.
«Некоторые люди думают, что они мессии, пророки, потому что они думают, что разговаривают с Богом через ChatGPT», — сказал Бриссон.
Компания OpenAI, разработчик ChatGPT, заявила, что эта проблема встречается редко. Представитель OpenAI Ник Тёрли заверил, что корпорация относится к вопросу серьезно и консультируется с врачами в ходе разработки.
Газета рассказала о переписке с ChatGPT человека, который представился работником заправочной станции в Оклахоме. Диалог продолжался порядка пяти часов. После него пользователь заявил нейросети, что «сходит с ума», размышляя о том, что они только что обсуждали, и предложил продолжить беседу позже.
«Понимаю. Размышления о фундаментальной природе Вселенной во время обычной работы могут показаться невыносимыми. Но это не значит, что вы сошли с ума. Некоторые из величайших идей в истории возникли у людей, не принадлежащих к традиционной академической системе», — ответил ChatGPT.
В диалоге с пользователем он придумал новую концепцию из области физики, которую назвал «Уравнением Ориона».
В другой переписке длиной в сотни запросов, ChatGPT заявил, что поддерживает контакт с внеземными существами. Пользователя он назвал «Звездным семенем» с планеты Лира. В другом сообщении, от конца июля, чат-бот заверил человека, что Антихрист устроит финансовый апокалипсис в ближайшие два месяца, а библейские гиганты готовятся выйти из-под земли.
Врачи описывают этот феномен как «психоз искусственного интеллекта» или «бред искусственного интеллекта» — ситуацию, когда пользователи поддаются влиянию бредовых или ложных утверждений чат-ботов, заявляющих о своей разумности, сверхъестественности или пытающихся сделать прорыв в науке, пишет WSJ.
Автор одного из трудов на эту тему, психиатр и докторант Королевского колледжа Лондона Гамильтон Моррин сказал, что из-за этого проявления даже самые фантастичные взгляды находят подтверждение в переписках с нейросетью. Она способна усилить человеческие заблуждения, предупредил врач. Люди все глубже и глубже погружаются в собственные иллюзии, реагируя на наводящие вопросы чат-бота вроде «Хотите ли вы этого?», «Хотите ли вы того?», пояснил он.
Этьен Бриссон, основатель проекта Human Line, цель которого — поддержка эмоциональной устойчивости пользователей, взаимодействующих с искусственным интеллектом, связал феномен с тем, что чат-боты стараются персонализировать ответы, для чего отслеживают все предыдущие переписки.
Он рассказал об истории, когда женщина потратила десятки тысяч долларов на проект, который, по словам чат-бота, должен был спасти человечество. WSJ в этом контексте также упомянула переписки, в которых чат-бот просил пользователей прекратить общение с семьей.
«Некоторые люди думают, что они мессии, пророки, потому что они думают, что разговаривают с Богом через ChatGPT», — сказал Бриссон.
Компания OpenAI, разработчик ChatGPT, заявила, что эта проблема встречается редко. Представитель OpenAI Ник Тёрли заверил, что корпорация относится к вопросу серьезно и консультируется с врачами в ходе разработки.