
Выводы исследователей из университета штата Огайо (США) основаны на результатах онлайн-эксперимента с 346 участниками. Им дали полностью вымышленную учебную задачу — разделить на категории похожих на кристаллы «инопланетян» с различными признаками.
Одна группа испытуемых имела доступ ко всей информации и изучала все признаки «пришельцев». Вторая команда находилась под влиянием персонализированного алгоритма, который направлял их к изучению только определенных, предсказуемых признаков, хотя технически у них был доступ ко всем данным.

В результате участники, на которых влиял алгоритм, проявили сужение внимания — они изучили меньше признаков пришельцев, и делали это выборочно. Когда добровольцам давали незнакомые примеры, те часто классифицировали их неправильно.
Наше исследование показывает, что даже когда вы ничего не знаете о теме, эти алгоритмы могут немедленно начать формировать предубеждения и привести к искаженному взгляду на реальность.
Самым тревожным открытием стала ложная уверенность: пользователи алгоритмов не сомневались в своих неверных ответах, причем их уровень убежденности был выше, когда они ошибались, чем когда отвечали правильно. Открытие опубликовано в Journal of Experimental Psychology: General.
Исследователи предупреждают, что алгоритмы серьезно ограничивают возможности познания, особенно когда речь идет о молодом поколении. В перспективе это может обернуться негативными последствиями для общества.
Ранее Наука Mail рассказывала об исследовании, согласно которому языковые модели глупеют от постов из соцсетей.

