
Работа ученых из Университета Васэда (Япония) вышла в журнале Current Psychology. В ней исследователи, включая Фан Яна и профессора Ацуши Осио, предложили рассматривать отношения человека с искусственным интеллектом через призму теории привязанности — психологического подхода, описывающего, как формируются эмоциональные связи между людьми.
С развитием генеративных моделей, таких как ChatGPT, ИИ все чаще воспринимается не только как инструмент, но и как потенциальный источник эмоциональной поддержки. Исследование включает два пилотных и одно формальное исследование, в рамках которых была разработана специальная шкала EHARS для оценки привязанности к ИИ.

Выяснилось, что около 75% участников обращались к ИИ за советами, а 39% чувствовали его как стабильное и надежное присутствие. В рамках шкалы исследователи выделили два аспекта привязанности: тревожность, когда пользователю важно получать поддержку и он боится быть проигнорированным, и избегание, когда человек чувствует дискомфорт от «близости» и предпочитает дистанцию.
Хотя данные не подтверждают формирование настоящей эмоциональной привязанности к ИИ, они показывают, что привычные психологические модели можно применять к новым формам взаимодействия. Это может быть полезно при разработке ИИ-компаньонов, чат-ботов для психологической помощи и других сервисов.

Например, системы ИИ можно адаптировать под пользователей с разными стилями привязанности: отвечать более эмпатично тревожным или соблюдать дистанцию для избегающих. Также ученые подчеркивают важность прозрачности — особенно в романтических или заботливых интерфейсах, чтобы избежать эмоциональной зависимости и манипуляций.
Разработанная шкала EHARS может быть использована разработчиками и психологами для оценки эмоционального восприятия ИИ и его корректной настройки. По словам Фан Яна, такое понимание взаимодействия человека и ИИ поможет сделать технологии безопаснее и более человечными в социальном контексте.
Интерес к тому, как люди взаимодействуют с ИИ, не ограничивается только эмоциональной стороной. Например, параллельно ученые пытаются понять, как сделать так, чтобы нейросети не поддакивали человеку и не поддерживали сомнительные мнения — об этом вы можете прочитать в этой статье.