Мужчина попал в больницу с психозом из-за советов ChatGPT: что ему рекомендовал ИИ
Мужчина попал в больницу с психозом из-за советов ChatGPT: что е
09 августа 2025, 13:30 | Просмотров:

ChatGPT
Мужчина, следовавший диетическим рекомендациям ChatGPT, получил психоз — это первый задокументированный случай отравления из-за искусственного интеллекта. Передает ТСН.
Об этом пишет издание Gizmodo.
Врачи Университета Вашингтона опубликовали в журнале Annals of Internal Medicine: Clinical Cases уникальный случай, ставший предупреждением для современного мира. Мужчина в течение трёх месяцев употреблял натрия бромид по совету искусственного интеллекта ChatGPT, что привело к отравлению и развитию психоза. К счастью, после лечения пациент выздоровел.
История начинается с того, что мужчина обратился в местную больницу с подозрением на отравление, которое, по его словам, мог вызвать сосед. В медучреждении у него обнаружили симптомы возбуждения и паранойи, отказ пить воду даже при жажде, галлюцинации, а затем развился полноценный психотический эпизод. Из-за этого его поместили в принудительную психиатрическую изоляцию.
Врачи быстро начали терапию внутривенными растворами и антипсихотическими препаратами, что стабилизировало состояние пациента. После того, как мужчина смог чётко объяснить ситуацию, выяснилось, что причина — бромизм, отравление бромидом.
Мужчина рассказал, что три месяца назад начал сознательно употреблять натрия бромид, узнав о негативном влиянии избытка поваренной соли (натрия хлорида) на здоровье. Он искал способ уменьшить потребление хлорида.
«Вдохновлённый знаниями по питанию, полученными во время учёбы в университете», — отметили врачи, — мужчина решил исключить хлорид из рациона и обратился к ChatGPT за советом. Искусственный интеллект якобы посоветовал заменить хлорид на бромид, утверждая, что это безопасно. Получив такую рекомендацию, мужчина начал покупать и употреблять натрия бромид, приобретённый в интернете.
По хронологии событий можно предположить, что мужчина пользовался версиями ChatGPT 3.5 или 4.0. Врачи не имели доступа к истории чата пациента, поэтому точный диалог неизвестен. Однако, протестировав ChatGPT 3.5, они получили ответ, что бромид может быть заменой для хлорида.
Важно отметить, что в типичных контекстах замена бромида на хлорид касалась не питания, а, например, очистки или других бытовых сфер. ChatGPT подчёркивал, что контекст важен, но не предупредил об опасности потребления бромида и не спросил, зачем пользователь интересуется этим вопросом.
К счастью, после длительного лечения мужчина постепенно выздоровел, его сняли с антипсихотических препаратов и выписали из больницы через три недели. Через две недели после выписки он оставался в стабильном состоянии.
Врачи подчёркивают, что хотя ИИ, как ChatGPT, может стать полезным мостом между наукой и широкой аудиторией, существует риск распространения неполной или дезориентированной информации. Предостережения относительно замены хлорида на бромид вряд ли дали бы живые медицинские эксперты, особенно учитывая известную токсичность бромида.
Медики отмечают, что этот случай демонстрирует важность критического отношения к советам, полученным от искусственного интеллекта, и напоминает, что консультации с профессионалами остаются незаменимыми.



