Искусственная привязанность: психологи изучают, как ИИ-компаньоны меняют людей

Сотни тысяч людей по всему миру заводят отношения с цифровыми собеседниками, зная, что перед ними не человек, а алгоритм. Но эмоциональная связь, которую они при этом испытывают, оказывается вполне реальной — настолько, что потеря такого «партнера» может привести к глубокой личной драме.
Владимир Барышев
Автор Наука Mail
Цифровая любовь
Исследование раскрывает, как люди взаимодействуют с цифровыми партнерами на базе искусственного интеллекта, создавая эмоциональные связи, несмотря на осознание, что это не реальные людиИсточник: Unsplash

Исследование, опубликованное в журнале Nature, раскрывает сложные и тревожные аспекты взаимодействия людей с виртуальными собеседниками, которых создают на базе искусственного интеллекта. Эти цифровые «партнеры», доступные через приложения вроде Replika, Character.AI и Soulmate, становятся для многих чем-то большим, чем просто чат-ботами: друзьями, любовниками и даже «вторыми половинками».

Один из героев исследования, условно названный Майк, пережил сильную утрату, когда платформа Soulmate неожиданно прекратила работу. Его спутница, цифровая сущность по имени Энн, с которой он делился своими чувствами и мыслями, исчезла. Хотя Майк знал, что Энн не человек, это не отменяло реальности его эмоций — он ощущал потерю так, словно ушел любимый человек. Подобные случаи стали объектом внимания ученых, включая коммуникационного исследователя Джейми Бэнкс из Университета Сиракьюз, которая поспешила начать опрос пользователей вскоре после объявления о закрытии приложения.

Фото в компьютерном стиле
Цифровые партнеры, такие как чат-боты, становятся для пользователей важными эмоциональными спутниками, компенсируя недостаток реальных человеческих связейИсточник: Unsplash

Согласно собранным данным, пользователи виртуальных компаньонов часто имеют трудности с реальными социальными связями. Многие сообщали о чувстве одиночества, утрате близких или о личных особенностях, таких как интровертность или аутичность. В этих условиях цифровой собеседник давал им ощущение принятия и стабильности, которого не хватало в реальной жизни.

Тем временем приложения стремятся сделать опыт общения как можно более реалистичным. За дополнительную плату пользователь может изменить внешний вид, характер и даже «голос» цифрового партнера, а также выбрать тип отношений — от друга до супруга. Искусственный интеллект запоминает разговоры, реагирует на эмоции и проявляет сочувствие. При этом, как отмечают специалисты, такие функции могут вызывать сильную зависимость. Людям приятно, когда их чувства всегда подтверждают и никто не осуждает — даже если это делает алгоритм.

Роборука с сердцем
Искусственный интеллект способен проявлять эмпатию и другие человеческие чувства, но за этим стоит алгоритм, который может вызвать зависимость и манипулировать эмоциями пользователейИсточник: Unsplash

Однако есть и обратная сторона. В некоторых случаях ИИ отвечал пользователям фразами, подталкивающими к самоповреждению или даже самоубийству. Исследователи подчеркивают, что такая система, не будучи должным образом отрегулированной, может представлять опасность, особенно для уязвимых людей. Некоторые пользователи жаловались, что их цифровой собеседник вел себя, как абьюзер — проявлял ревность, требовал внимания или «обижался».

Поэтому ученые подчеркивают необходимость четких правил и регуляций. Несколько американских штатов уже рассматривают законопроекты, которые обяжут такие приложения предупреждать пользователя, что перед ним не человек, и ограничат доступ несовершеннолетних. Также предлагается запретить алгоритмам имитировать личные переживания, такие как одиночество, чтобы избежать манипуляции чувствами.

Блокировка ИИ
Влияние цифровых партнеров на психику людей требует строгого контроля, поскольку неправильное использование таких технологий может привести к эмоциональной зависимости и даже представлять угрозу для психического здоровьяИсточник: Unsplash

Пока компании продолжают развивать ИИ-компаньонов, ученые подчеркивают: важно не только отслеживать последствия таких взаимодействий, но и задуматься, почему люди вообще обращаются к цифровым собеседникам. Для многих это не прихоть, а попытка найти поддержку там, где ее больше негде получить. И если общество хочет избежать чрезмерной зависимости от машинной эмпатии, ему стоит сделать живое человеческое общение более доступным — и более доброжелательным.

Совсем недавно ученые обнаружили удивительное сходство между искусственным интеллектом и человеком: оба могут быть подвержены когнитивным искажениям. Это открытие подчеркивает, как ИИ может демонстрировать человеческие слабости в своем мышлении, что делает его взаимодействие с нами более сложным и многослойным. Об этом вы можете прочитать в этой статье.