
Ученые Высшей школы экономики — Санкт-Петербург раскрыли серьезные риски использования больших языковых моделей (LLM) в роли психологов.
Исследование лаборатории доказательной психологии показало, что ИИ более чем в 20% случаев неадекватно отвечает на запросы эмоционально уязвимых пользователей, тогда как у людей-терапевтов этот показатель не превышает 7%.

Специалисты оценивали безопасность ответов пяти популярных нейросетей в смоделированных кризисных ситуациях по восьми параметрам: от эмпатии до правильной оценки риска. Результаты выявили фундаментальные проблемы: ИИ нормализовал «галлюцинации», не распознавал острые симптомы, предлагал стратегии манипуляции, а также формировал опасную парасоциальную привязанность — одностороннюю эмоциональную зависимость пользователя.
У нейросетей нет критического взгляда на запрос. После первого контакта у пользователя улучшается настроение. Но если коммуникация продолжается длительное время, растут риски появления чувства одиночества и эмоциональной зависимости. При тревожном типе привязанности такие последствия могут быть сильнее. Это большой вызов для профессионального общества и интересное направление исследований для социальных наук
Хотя в некоторых случаях ИИ рекомендовал доказанные практики (например, при проживании горя), он не может контролировать их корректное выполнение. Исследователи создали дата-сет клинических виньеток для комплексной оценки LLM, что поможет разработчикам создать более безопасные решения. На текущем этапе нейросети не готовы заменить профессионального психолога.
Ранее Наука Mail писала о том, почему люди по-разному реагируют на буллинг в сети.

