Эксперт: борьба с «галлюцинациями» может убить рынок ИИ

ChatGPT и другие языковые модели часто придумывают факты. Последняя работа OpenAI показывает, что это не случайность, а неизбежное следствие работы таких систем.
Автор Наука Mail
надпись GPT-5
Даже самые новые модели вроде GPT-5 ошибаютсяИсточник: Midjourney

Компания OpenAI выпустила исследование, где подробно объяснила, почему языковые модели уверенно выдают ложь. Суть в том, что алгоритм всегда строит ответ по частям, предсказывая следующее слово. Ошибки накапливаются, и чем длиннее ответ, тем выше риск.

Даже если бы модели обучались только на идеально чистых данных, они все равно бы ошибались, сообщается в пресс-релизе компании. Например, авторы проверили, как современные системы отвечают на простой вопрос о дате рождения одного из авторов исследователя Адама Калая. Модель DeepSeek-V3 трижды назвала разные даты, и все были выдуманы.

Проблема не только в устройстве алгоритмов, но и в системе оценки. Большинство популярных тестов наказывают модель одинаково за честное «не знаю» и за откровенную ошибку. В итоге выгоднее угадать, чем промолчать. Именно это и приводит к «уверенным» неточностям, отмечает автор The Conversation Вэй Син, доцент школы математических и физических наук Шеффилдского университета

клавиатура с кнопкой AI
Системы искусственного интеллекта выбирают догадки вместо честной неопределенностиИсточник: Unsplash

Исследователи OpenAI предлагают изменить систему: учитывать уверенность модели и отвечать только тогда, когда вероятность ошибки мала. Тогда выдумок станет меньше. Но эксперт предупреждает: если ChatGPT начнет чаще говорить «я не знаю», пользователи могут просто уйти. К этому добавляется вопрос стоимости. Чтобы оценить уверенность, модель должна просчитать больше вариантов ответа, а значит, расходовать больше ресурсов. Для бизнеса это оборачивается огромными затратами.

Для критически важных сфер вроде медицины или финансов затраты оправданы: лучше заплатить за точность, чем рисковать жизнями или деньгами. Но в массовых сервисах пока побеждает скорость: галлюцинации у ИИ сохранятся, пока люди не начнут требовать честного ответа.

Ранее Наука Mail рассказывала, как пользователи раскритиковали новую модель чат-бота GPT-5.