Судью заподозрили в использовании ИИ

Американский судья вынес решение, полное вымышленных фактов, и это заставило юристов по всему миру задаться вопросом: а не сгенерировал ли его искусственный интеллект.
Автор Наука Mail
Церемониальный молоток судьи
Ошибки в судебном решении: вымышленные цитаты и делаИсточник: Unsplash

В июле 2025 года федеральный суд округа Миссисипи опубликовал судебное распоряжение, которое сразу вызвало бурную реакцию в юридическом сообществе. Документ оказался полон грубых ошибок: он ссылался на несуществующие дела, приводил недостоверные выдержки из законов и даже называл истцами организации, которые не участвовали в процессе.

Как сообщает Mississippi Today, такие сбои характерны для генеративных языковых моделей — нейросетей, способных уверенно придумывать несуществующие данные. Позже решение было откорректировано, но даже в новой версии остались ссылки на нормативные акты, которых, по словам юристов, никогда не существовало. 

Робот-гуманоид и весы-правосудия
Когда машина говорит от имени законаИсточник: Midjourney

Ошибка привлекла особое внимание не только из-за масштабности, но и потому, что впервые под подозрением оказался судья. Если раньше судья мог потребовать объяснений у юриста, пойманного на ошибке, то механизм обратной проверки попросту отсутствует. Судья, подписавший решение, отказался от публичных комментариев, сообщает Futurism.

Ошибки нейросетей, называемые «галлюцинациями», уже стали предметом обсуждения в научной и юридической средах. Но этот случай наглядно показал, как далеко может зайти неконтролируемое использование технологий даже в самых ответственных сферах.

Ранее Наука Mail рассказывала, что для людей с зависимостью от ИИ-чатов придумали название.