
Популярные языковые модели искусственного интеллекта демонстрируют те же когнитивные искажения, что и люди. Об этом стало известно из результатов международного исследования, опубликованного в журнале Manufacturing & Service Operations Management.
Ученые из Канады и Австралии проверили, насколько модели GPT-3.5 и GPT-4 от OpenAI подвержены 18 наиболее распространенным когнитивным искажениям. В почти половине сценариев ChatGPT воспроизводил иррациональные шаблоны мышления, включая избыточную уверенность, стремление к избеганию риска и так называемый «эффект горячей руки», при котором человек ожидает закономерности в случайных событиях.

При этом GPT-4 лучше справился с задачами, где требовались точные расчеты, и допустил меньше ошибок в логике и вероятностях. В более субъективных вопросах, например, связанных с выбором между риском и стабильностью, он склонялся к предвзятым решениям даже сильнее, чем человек.
Если вы хотите получить точную и непредвзятую поддержку в принятии решений, используйте ИИ там, где вы бы доверились калькулятору. Но если исход зависит от субъективных или стратегических факторов, важно сохранить контроль со стороны человека — даже если это просто корректировка промптов для устранения известных искажений
Исследователи объясняют это тем, что языковые модели обучаются на текстах, написанных людьми, а значит, унаследовали их когнитивные ошибки. Эти искажения могут закрепляться в процессе дообучения, особенно при участии людей, которые оценивают ответы моделей по степени правдоподобия.
Ранее Наука Mail писала, ИИ научили интерпретировать ЭКГ с точностью до пикселя.