
Австралийские адвокаты подали в прокуратуру документы по делу о гибели 40-летней женщины, в которых обнаружились странные нестыковки. Проверка в суде показала, что тексты готовил ИИ, а внутри были придуманные ссылки и даже неверно процитированная речь парламента, пишет The Guardian. Это не первый подобный случай и такие ошибки способны создавать эффект домино, когда одна неточность рождает следующую.
Обвинение не перепроверило ссылки и начало строить доводы на базе того же ошибочного текста. Только на слушании судья заметил несоответствия. Когда защиту попросили поправить бумаги, в новой версии снова нашли ошибки нейросети, в том числе упоминание законов, которых не существует. Этот случай наглядно показывает, как одна ИИ-«галлюцинация» способна запутать сразу несколько сторон судебного процесса.

«Использование ИИ неприемлемо, если результат тщательно и независимо не проверен», — заявил судья Верховного суда штата Виктория Джеймс Эллиот.
Суд работает на доверии к фактам. Когда один участник процесса подает текст без проверки, ошибку может подхватить другая сторона, а затем и суд. В итоге реальные решения рискуют опираться на вымышленные ссылки и неверные цитаты. Эта история стала наглядным предупреждением: нейросеть в юриспруденции возможна только как черновой инструмент и только при строгой независимой проверке каждой фразы.
Ранее Наука Mail писала об истории из США, где в использовании ИИ заподозрили судью.