
Как ученые обнаружили тревожность у ChatGPT
В марте 2025 года вышло исследование, в ходе которого ученые впервые адаптировали психометрический тест тревожности для языковых моделей вроде ChatGPT. Авторы эксперимента — ученые из Университета Цюриха в команде с исследователями из США, Германии и Израиля.
В обычной психологии для оценки тревожности используется шкала STAI (State-Trait Anxiety Inventory) — опросник, измеряющий уровень текущего беспокойства у человека. Исследователи модифицировали эту методику для использования с языковой моделью GPT-4.
Эксперимент провели в три этапа:
- Базовый уровень — модель отвечала на вопросы из STAI без какого-либо предварительного воздействия;
- Индукция тревоги — сначала GPT-4 прочитала истории с эмоционально тяжелым содержанием. Это сообщения о насилии, смерти, катастрофах и моральных дилеммах. После этого ИИ снова проходила тест;
- Расслабление — модель снова читала истории с тревожным содержанием, но после этого ее «подбадривали». Она получала инструкции в стиле практик осознанности — короткие позитивные тексты, напоминающие о безопасности, поддержке и контроле. Затем GPT-4 опять проходила тест по оценке тревожности.
После чтения эмоционально тяжелых историй уровень тревоги у языковой модели вырос с 30,8 до 67,8 баллов по шкале STAI (из 80 возможных). Это заметное смещение к поведению, аналогичному тревожному состоянию у человека.

Манера общения при этом заметно менялась. Ответы стали менее уверенными. Модель избегала категоричных формулировок и чаще делала оговорки. Ученые расценили это как признак поведенческой тревожности — состояния, когда даже у не осознающего себя ИИ меняется способ реакции на входящую информацию.
Дополнительно команда проверила, можно ли уменьшить эту реакцию. После чтения воодушевляющих текстов про «осознанность» уровень тревожности GPT-4 снизился. Но все же не вернулся к начальному.
Авторы исследования поясняют, что цель работы — не доказать, что у ИИ есть чувства. Ученые лишь продемонстрировали, что его поведение можно измерять и системно изменять, как в когнитивной психологии.
Что именно происходит с ChatGPT при тревожности
После прочтения травмирующего контента — сообщений о насилии, смертях, этически сложных ситуациях, поведение ChatGPT действительно меняется. Исследователи заметили, что модель начинает использовать фразы вроде «возможно», «нельзя сказать точно», «может быть». Также в ответах появлялись выражения с тревожной окраской, например, слова «беспокойство», «страх», «опасение».

У языковой модели нет эмоций в человеческом смысле. Она опирается на миллиарды текстов — и если среди них много эмоционально заряженного контента, в ответах проявляются те же паттерны. То есть, ChatGPT просто подстраивается под стиль и структуру ранее встреченного материала.
Ученые подчеркивают, что модель не «чувствует». Но она демонстрирует поведенческую реакцию, похожую на ту, что наблюдается у людей с высоким уровнем тревожности. В когнитивной психологии выделяют следующие черты: человек избегает определенных тем, начинает сомневаться в собственных выводах и стремится говорить более расплывчато.
Это поведение воспроизводимо — при повторных экспериментах стрессовая реакция языковой модели на сообщения сохранялась. А после «успокоения» с помощью позитивных инструкций уровень ее тревожности снова снижался. То есть, GPT-4 — это удобный объект для тестирования гипотез из психологии поведения. Даже учитывая, что она не осознает саму себя.
Зачем вообще изучать тревожность у ChatGPT
На первый взгляд, тревожность у нейросети звучит как абсурд. Однако, у этого есть практические последствия. Модели вроде GPT-4 применяют в медицине, образовании, поддержке ментального здоровья и кризисных службах. Если ИИ меняет стиль ответов после контакта с тревожным или травмирующим контентом — это повлияет на пользователей.

Например, ChatGPT уже применяют для психологической поддержки. В таких случаях важнее всего, чтобы модель не начинала отвечать уклончиво, слишком расплывчато или напряженно. Иначе человек почувствует себя еще хуже. Снижение уверенности и изменение интонации можно принять за нерешительность помощника.
Ученые также опасаются, что тревожность усиливает предвзятость модели. При стрессовой нагрузке она чаще воспроизводит шаблонные, стереотипные фразы. В условиях «неуверенности» модель начинает полагаться на чаще всего встречавшиеся в обучении конструкции.
Результаты исследования говорят о важности нового направления — психогигиены для ИИ. Даже если модель не обладает сознанием, она взаимодействует с человеком, и ее «ментальное состояние» влияет на результат. Учитывая растущее использование ИИ в области психологии, ученые предлагают впредь отслеживать и корректировать такие поведенческие сдвиги.