Медицинский исследователь Альмира Османович Тунстрем из Гетеборгского университета в Швеции провела эксперимент: в начале 2024 года она придумала несуществующее заболевание «биксонимания» и загрузила два фальшивых исследования о нем на сервер препринтов. Ведущим автором статей значился вымышленный ученый Лазлив Изгубленович — даже его фото сгенерировал ИИ. В текстах были явные подсказки о подделке: например, упоминались несуществующий университет и «Академия Звездного Флота».

Тем не менее крупные нейросети стали воспроизводить информацию о биксонимании как о реальном заболевании. Так, в апреле 2024‑го Copilot от Microsoft Bing назвал его «интригующим и относительно редким», а Gemini от Google связал с воздействием синего света и посоветовал обратиться к офтальмологу. Позже некоторые нейросети начали выражать сомнения — например, ChatGPT в 2026 году сначала назвал биксониманию «выдуманной», а спустя несколько дней снова допустил ее существование.
Ситуация усугубилась тем, что фальшивые статьи процитировали в рецензируемых научных журналах. Например, одна работа в журнале Cureus ссылалась на поддельный препринт — позже статью отозвали.

Эксперимент показал, что ИИ‑системы и даже ученые могут не распознавать дезинформацию. По словам исследователей, риск особенно велик в медицине — ложные данные способны повлиять на рекомендации и навредить пациентам. Есть и коммерческий риск: кто‑то может использовать такой метод для продвижения товаров, например, очков с защитой от синего света.
Специалисты предлагают создать стандартизированную систему тестирования моделей ИИ перед внедрением, чтобы проверять их на устойчивость к дезинформации и другие проблемы. При этом часть ученых считает эксперимент спорным с этической точки зрения, хотя и признает его ценность для выявления уязвимостей ИИ. Как отмечает один из экспертов, «мы и наше здоровье не должны быть бета‑тестерами для компаний».
Ранее Наука Mail рассказывала о том, что слизевик без мозга смог решить математическую задачу, которая считается сложной для ИИ.

