
Мужчина изучал вред избытка соли, и, вдохновившись нутрициологией, решил провести «личный эксперимент»: полностью убрать хлорид из питания. По его словам, ChatGPT предложил заменить натрий хлорид на натрий бромид, сообщает Live Science.
Экспериментатор заказал вещество в интернете и три месяца использовал его вместо соли. Бромид раньше широко применяли в медицине, но к 1980-м стало ясно, что его накопление в организме вызывает психоз, нарушение координации, усталость и высыпания.

Через три месяца мужчина оказался в отделении неотложной помощи, уверенный, что сосед его отравляет. Анализы показали повышенный уровень хлорида, но позже выяснилось, что это была лабораторная ошибка из-за высокой концентрации бромида.
Во время госпитализации его паранойя усилилась, появились галлюцинации, он пытался покинуть больницу. Этот случай, к счастью, закончился выздоровлением, но при других обстоятельствах мог бы пополнить список номинантов на Премию Дарвина — за особенно изобретательный способ нанести себе тяжкий вред.

Авторы отчета в Annals of Internal Medicine Clinical Cases подчеркивают: медик не стал бы советовать натрий бромид в качестве замены соли. Этот случай показывает, что ИИ может выдавать рекомендации без учета контекста, что особенно опасно в вопросах здоровья.
Дополнительное исследование, проведенное другой группой ученых, показало, что большие языковые модели склонны к «галлюцинациям» — генерации правдоподобных, но неверных фактов. Инженерные доработки снижают риск ошибок, но полностью не устраняют его.
Ранее Наука Mail писала о том, как «Википедия» вводит систему быстрого удаления материалов, созданных ИИ, чтобы бороться с ошибками и вымышленными фактами.

