Человек и искусственный интеллект

Ученые проверили способность ИИ выявлять обман

Новое масштабное исследование, проведенное учеными из Мичиганского государственного университета и Университета Оклахомы, показывает, что современные генеративные ИИ-модели пока не могут надежно определять, обманывает ли их человек.
Автор Наука Mail
Девушка сидит перед монитором компьютера
Окончательные результаты показывают, что результаты ИИ не соответствуют результатам человека или не точныИсточник: Freepik

Способен ли искусственный интеллект отличить правду ото лжи, и можно ли доверять его суждениям в таком тонком деле? Новое исследование, проведенное учеными из Мичиганского государственного университета совместно с коллегами из Университета Оклахомы, дает неутешительный ответ: современные ИИ-персонажи пока не могут эффективно справляться с этой задачей. Результаты масштабной научной работы основаны на серии из двенадцати экспериментов с участием более 19 тысяч человек и использовании ИИ для анализа человеческой коммуникации.

Как пояснил ведущий автор исследования Дэвид Марковиц, доцент кафедры коммуникации Мичиганского государственного университета, работа призвана не только изучить потенциал ИИ, но и предостеречь специалистов от поспешного использования больших языковых моделей для обнаружения лжи. Для сравнения возможностей искусственного интеллекта с человеческими способностями ученые опирались на теорию истины по умолчанию. Согласно этой теории, люди в большинстве ситуаций склонны считать других честными, что является эволюционно полезным механизмом, позволяющим избегать постоянного психического напряжения, связанного с недоверием. Эта естественная склонность к правде была взята за основу для сравнения с реакцией ИИ.

Результаты показали, что ИИ более склонен ко лжи и гораздо менее точен, чем люди
Результаты показали, что ИИ более склонен ко лжи и гораздо менее точен, чем людиИсточник: Unsplash

В ходе экспериментов исследователи использовали специализированную платформу Viewpoints AI, которая предоставляла искусственному интеллекту аудио- и видеоматериалы с участием людей. ИИ-персонажам, созданным для имитации поведения реальных людей, ставилась задача определить, лжет человек или говорит правду, и обосновать свое решение. Ученые оценивали множество переменных, включая тип медиа, контекстный фон, базовые показатели соотношения лжи и правды в коммуникации, а также индивидуальные особенности самих ИИ-персон. Результаты оказались неоднозначными и показали сильную зависимость ИИ от контекста. Например, в одном из исследований искусственный интеллект продемонстрировал выраженную склонность ко лжи, точно распознавая обман в 85,8% случаев, но при этом с огромным трудом идентифицировал правду, показывая результат всего в 19,5%.

В условиях, имитирующих короткие допросы, точность ИИ в обнаружении лжи была сопоставима с человеческой. Однако в более нейтральных ситуациях, таких как оценка утверждений о друзьях, алгоритм начинал проявлять склонность к правде, что больше соответствовало человеческому поведению. В целом итоговые данные показали, что ИИ в среднем более склонен ко лжи и значительно менее точен по сравнению с людьми. Марковиц отметил, что, хотя ИИ и проявил чувствительность к контексту, это никак не улучшило его общую способность к распознаванию обмана. Окончательные выводы исследования свидетельствуют о том, что результаты, полученные от искусственного интеллекта, либо не соответствуют человеческим, либо являются неточными.

Ранее Наука Mail рассказала, что ChatGPT точнее отвечает на вопросы грубым пользователям.