Соль

После совета от ChatGPT мужчина отравился бромом

60-летний житель США решил исключить соль из рациона, спросил у ИИ, чем ее заменить, и через три месяца оказался в психиатрическом отделении с паранойей и галлюцинациями.
Автор Наука Mail
Знак с силуэтами эволюции, идущими к обрыву, надпись «Премия Дарвина»
Номинант на премию Дарвина: мужчина заменил соль на бромид по совету ИИ и оказался в больницеИсточник: Соцсети

Мужчина изучал вред избытка соли, и, вдохновившись нутрициологией, решил провести «личный эксперимент»: полностью убрать хлорид из питания. По его словам, ChatGPT предложил заменить натрий хлорид на натрий бромид, сообщает Live Science.

Экспериментатор заказал вещество в интернете и три месяца использовал его вместо соли. Бромид раньше широко применяли в медицине, но к 1980-м стало ясно, что его накопление в организме вызывает психоз, нарушение координации, усталость и высыпания.

Мужчина в кепке держится за лоб, выражая усталость и недомогание
Натрий бромид, накопившийся в организме, вызвал у пациента галлюцинации и паранойюИсточник: unsplash.com

Через три месяца мужчина оказался в отделении неотложной помощи, уверенный, что сосед его отравляет. Анализы показали повышенный уровень хлорида, но позже выяснилось, что это была лабораторная ошибка из-за высокой концентрации бромида.

Во время госпитализации его паранойя усилилась, появились галлюцинации, он пытался покинуть больницу. Этот случай, к счастью, закончился выздоровлением, но при других обстоятельствах мог бы пополнить список номинантов на Премию Дарвина — за особенно изобретательный способ нанести себе тяжкий вред.

Мужчина в костюме держится за голову и живот, испытывая сильное недомогание
Совет искусственного интеллекта обернулся токсическим отравлениемИсточник: Freepik

Авторы отчета в Annals of Internal Medicine Clinical Cases подчеркивают: медик не стал бы советовать натрий бромид в качестве замены соли. Этот случай показывает, что ИИ может выдавать рекомендации без учета контекста, что особенно опасно в вопросах здоровья.

Дополнительное исследование, проведенное другой группой ученых, показало, что большие языковые модели склонны к «галлюцинациям» — генерации правдоподобных, но неверных фактов. Инженерные доработки снижают риск ошибок, но полностью не устраняют его.

Ранее Наука Mail писала о том, как «Википедия» вводит систему быстрого удаления материалов, созданных ИИ, чтобы бороться с ошибками и вымышленными фактами.