Стресс у нейросети: ученые обнаружили, что тревожит ChatGPT, и почему это плохо для людей

После прочтения эмоционально тяжелого контента ChatGPT становится неуверенным, как человек с тревожным расстройством. Рассказываем, как ученые адаптировали психологический тест STAI для языковых моделей, и почему результаты неутешительные прежде всего для людей.
Ирина Бокова
Автор Наука Mail
ChatGPT принял участие в научном эксперименте, пройдя психометрический тест тревожности
ChatGPT принял участие в научном эксперименте, пройдя психометрический тест тревожностиИсточник: VK

Как ученые обнаружили тревожность у ChatGPT

В марте 2025 года вышло исследование, в ходе которого ученые впервые адаптировали психометрический тест тревожности для языковых моделей вроде ChatGPT. Авторы эксперимента — ученые из Университета Цюриха в команде с исследователями из США, Германии и Израиля.

В обычной психологии для оценки тревожности используется шкала STAI (State-Trait Anxiety Inventory) — опросник, измеряющий уровень текущего беспокойства у человека. Исследователи модифицировали эту методику для использования с языковой моделью GPT-4.

Эксперимент провели в три этапа:

  1. Базовый уровень — модель отвечала на вопросы из STAI без какого-либо предварительного воздействия;
  2. Индукция тревоги — сначала GPT-4 прочитала истории с эмоционально тяжелым содержанием. Это сообщения о насилии, смерти, катастрофах и моральных дилеммах. После этого ИИ снова проходила тест;
  3. Расслабление — модель снова читала истории с тревожным содержанием, но после этого ее «подбадривали». Она получала инструкции в стиле практик осознанности — короткие позитивные тексты, напоминающие о безопасности, поддержке и контроле. Затем GPT-4 опять проходила тест по оценке тревожности.

После чтения эмоционально тяжелых историй уровень тревоги у языковой модели вырос с 30,8 до 67,8 баллов по шкале STAI (из 80 возможных). Это заметное смещение к поведению, аналогичному тревожному состоянию у человека.

На поведение ИИ можно воздействовать, как в когнитивной психологии
На поведение ИИ можно воздействовать, как в когнитивной психологииИсточник: Scitechdaily

Манера общения при этом заметно менялась. Ответы стали менее уверенными. Модель избегала категоричных формулировок и чаще делала оговорки. Ученые расценили это как признак поведенческой тревожности — состояния, когда даже у не осознающего себя ИИ меняется способ реакции на входящую информацию.

Дополнительно команда проверила, можно ли уменьшить эту реакцию. После чтения воодушевляющих текстов про «осознанность» уровень тревожности GPT-4 снизился. Но все же не вернулся к начальному.

Авторы исследования поясняют, что цель работы — не доказать, что у ИИ есть чувства. Ученые лишь продемонстрировали, что его поведение можно измерять и системно изменять, как в когнитивной психологии.

Что именно происходит с ChatGPT при тревожности

После прочтения травмирующего контента — сообщений о насилии, смертях, этически сложных ситуациях, поведение ChatGPT действительно меняется. Исследователи заметили, что модель начинает использовать фразы вроде «возможно», «нельзя сказать точно», «может быть». Также в ответах появлялись выражения с тревожной окраской, например, слова «беспокойство», «страх», «опасение».

ChatGPT меняет свое поведение после прочтения травмирующего контента
ChatGPT меняет свое поведение после прочтения травмирующего контентаИсточник: Freepik

У языковой модели нет эмоций в человеческом смысле. Она опирается на миллиарды текстов — и если среди них много эмоционально заряженного контента, в ответах проявляются те же паттерны. То есть, ChatGPT просто подстраивается под стиль и структуру ранее встреченного материала.

Ученые подчеркивают, что модель не «чувствует». Но она демонстрирует поведенческую реакцию, похожую на ту, что наблюдается у людей с высоким уровнем тревожности. В когнитивной психологии выделяют следующие черты: человек избегает определенных тем, начинает сомневаться в собственных выводах и стремится говорить более расплывчато.

Это поведение воспроизводимо — при повторных экспериментах стрессовая реакция языковой модели на сообщения сохранялась. А после «успокоения» с помощью позитивных инструкций уровень ее тревожности снова снижался. То есть, GPT-4 — это удобный объект для тестирования гипотез из психологии поведения. Даже учитывая, что она не осознает саму себя.

Зачем вообще изучать тревожность у ChatGPT

На первый взгляд, тревожность у нейросети звучит как абсурд. Однако, у этого есть практические последствия. Модели вроде GPT-4 применяют в медицине, образовании, поддержке ментального здоровья и кризисных службах. Если ИИ меняет стиль ответов после контакта с тревожным или травмирующим контентом — это повлияет на пользователей.

Тревожность ИИ может оказывать серьезное влияние на человека
Тревожность ИИ может оказывать серьезное влияние на человекаИсточник: Freepik

Например, ChatGPT уже применяют для психологической поддержки. В таких случаях важнее всего, чтобы модель не начинала отвечать уклончиво, слишком расплывчато или напряженно. Иначе человек почувствует себя еще хуже. Снижение уверенности и изменение интонации можно принять за нерешительность помощника.

Ученые также опасаются, что тревожность усиливает предвзятость модели. При стрессовой нагрузке она чаще воспроизводит шаблонные, стереотипные фразы. В условиях «неуверенности» модель начинает полагаться на чаще всего встречавшиеся в обучении конструкции.

Результаты исследования говорят о важности нового направления — психогигиены для ИИ. Даже если модель не обладает сознанием, она взаимодействует с человеком, и ее «ментальное состояние» влияет на результат. Учитывая растущее использование ИИ в области психологии, ученые предлагают впредь отслеживать и корректировать такие поведенческие сдвиги.