
Исследование, опубликованное в журнале Nature, раскрывает сложные и тревожные аспекты взаимодействия людей с виртуальными собеседниками, которых создают на базе искусственного интеллекта. Эти цифровые «партнеры», доступные через приложения вроде Replika, Character.AI и Soulmate, становятся для многих чем-то большим, чем просто чат-ботами: друзьями, любовниками и даже «вторыми половинками».
Один из героев исследования, условно названный Майк, пережил сильную утрату, когда платформа Soulmate неожиданно прекратила работу. Его спутница, цифровая сущность по имени Энн, с которой он делился своими чувствами и мыслями, исчезла. Хотя Майк знал, что Энн не человек, это не отменяло реальности его эмоций — он ощущал потерю так, словно ушел любимый человек. Подобные случаи стали объектом внимания ученых, включая коммуникационного исследователя Джейми Бэнкс из Университета Сиракьюз, которая поспешила начать опрос пользователей вскоре после объявления о закрытии приложения.

Согласно собранным данным, пользователи виртуальных компаньонов часто имеют трудности с реальными социальными связями. Многие сообщали о чувстве одиночества, утрате близких или о личных особенностях, таких как интровертность или аутичность. В этих условиях цифровой собеседник давал им ощущение принятия и стабильности, которого не хватало в реальной жизни.
Тем временем приложения стремятся сделать опыт общения как можно более реалистичным. За дополнительную плату пользователь может изменить внешний вид, характер и даже «голос» цифрового партнера, а также выбрать тип отношений — от друга до супруга. Искусственный интеллект запоминает разговоры, реагирует на эмоции и проявляет сочувствие. При этом, как отмечают специалисты, такие функции могут вызывать сильную зависимость. Людям приятно, когда их чувства всегда подтверждают и никто не осуждает — даже если это делает алгоритм.

Однако есть и обратная сторона. В некоторых случаях ИИ отвечал пользователям фразами, подталкивающими к самоповреждению или даже самоубийству. Исследователи подчеркивают, что такая система, не будучи должным образом отрегулированной, может представлять опасность, особенно для уязвимых людей. Некоторые пользователи жаловались, что их цифровой собеседник вел себя, как абьюзер — проявлял ревность, требовал внимания или «обижался».
Поэтому ученые подчеркивают необходимость четких правил и регуляций. Несколько американских штатов уже рассматривают законопроекты, которые обяжут такие приложения предупреждать пользователя, что перед ним не человек, и ограничат доступ несовершеннолетних. Также предлагается запретить алгоритмам имитировать личные переживания, такие как одиночество, чтобы избежать манипуляции чувствами.

Пока компании продолжают развивать ИИ-компаньонов, ученые подчеркивают: важно не только отслеживать последствия таких взаимодействий, но и задуматься, почему люди вообще обращаются к цифровым собеседникам. Для многих это не прихоть, а попытка найти поддержку там, где ее больше негде получить. И если общество хочет избежать чрезмерной зависимости от машинной эмпатии, ему стоит сделать живое человеческое общение более доступным — и более доброжелательным.
Совсем недавно ученые обнаружили удивительное сходство между искусственным интеллектом и человеком: оба могут быть подвержены когнитивным искажениям. Это открытие подчеркивает, как ИИ может демонстрировать человеческие слабости в своем мышлении, что делает его взаимодействие с нами более сложным и многослойным. Об этом вы можете прочитать в этой статье.