
Способен ли искусственный интеллект отличить правду ото лжи, и можно ли доверять его суждениям в таком тонком деле? Новое исследование, проведенное учеными из Мичиганского государственного университета совместно с коллегами из Университета Оклахомы, дает неутешительный ответ: современные ИИ-персонажи пока не могут эффективно справляться с этой задачей. Результаты масштабной научной работы основаны на серии из двенадцати экспериментов с участием более 19 тысяч человек и использовании ИИ для анализа человеческой коммуникации.
Как пояснил ведущий автор исследования Дэвид Марковиц, доцент кафедры коммуникации Мичиганского государственного университета, работа призвана не только изучить потенциал ИИ, но и предостеречь специалистов от поспешного использования больших языковых моделей для обнаружения лжи. Для сравнения возможностей искусственного интеллекта с человеческими способностями ученые опирались на теорию истины по умолчанию. Согласно этой теории, люди в большинстве ситуаций склонны считать других честными, что является эволюционно полезным механизмом, позволяющим избегать постоянного психического напряжения, связанного с недоверием. Эта естественная склонность к правде была взята за основу для сравнения с реакцией ИИ.

В ходе экспериментов исследователи использовали специализированную платформу Viewpoints AI, которая предоставляла искусственному интеллекту аудио- и видеоматериалы с участием людей. ИИ-персонажам, созданным для имитации поведения реальных людей, ставилась задача определить, лжет человек или говорит правду, и обосновать свое решение. Ученые оценивали множество переменных, включая тип медиа, контекстный фон, базовые показатели соотношения лжи и правды в коммуникации, а также индивидуальные особенности самих ИИ-персон. Результаты оказались неоднозначными и показали сильную зависимость ИИ от контекста. Например, в одном из исследований искусственный интеллект продемонстрировал выраженную склонность ко лжи, точно распознавая обман в 85,8% случаев, но при этом с огромным трудом идентифицировал правду, показывая результат всего в 19,5%.
В условиях, имитирующих короткие допросы, точность ИИ в обнаружении лжи была сопоставима с человеческой. Однако в более нейтральных ситуациях, таких как оценка утверждений о друзьях, алгоритм начинал проявлять склонность к правде, что больше соответствовало человеческому поведению. В целом итоговые данные показали, что ИИ в среднем более склонен ко лжи и значительно менее точен по сравнению с людьми. Марковиц отметил, что, хотя ИИ и проявил чувствительность к контексту, это никак не улучшило его общую способность к распознаванию обмана. Окончательные выводы исследования свидетельствуют о том, что результаты, полученные от искусственного интеллекта, либо не соответствуют человеческим, либо являются неточными.
Ранее Наука Mail рассказала, что ChatGPT точнее отвечает на вопросы грубым пользователям.

