
По данным исследования, опубликованного на TechXplore в сентябре 2025 года, новые поколения роботов получают способность определять эмоциональное состояние человека по выражению лица и тону голоса. Это направление активно развивается — и требует осторожности, считает Михаил Мозиков, научный сотрудник Института AIRI.
Эмоциональные стереотипы: улыбка не всегда означает радость
Даже базовые эмоции — радость, грусть, страх — имеют культурные оттенки. Исследования показывают, что способы выражения чувств зависят от норм поведения, контекста и экспрессивности культуры.
Если модель обучена на ограниченном массиве данных, она может неверно интерпретировать эмоции представителей других регионов или этнических групп. Для одного нейтральное выражение лица — норма, для другого это признак напряжения. Эмпатичный ИИ должен уметь учитывать историю взаимодействий и контекст пользователя.
Именно поэтому современные команды по разработке эмоциональных моделей переходят к мультимодальному подходу и активно обсуждают создание кросс-культурных, этически собранных датасетов.

От мимики к контексту: главный технический вызов
Распознать статичную эмоцию по фотографии — задача, решенная уже давно.
Сложность в другом — связать воедино мимику, голос, смысл слов и ситуацию.
Главный вызов — мультимодальная интеграция и персонализация. Один и тот же сигнал может значить разное для разных людей. Только объединение визуальных, звуковых и семантических данных позволит ИИ реагировать адекватно.
Такие системы начинают использовать архитектуры на основе мультимодальных трансформеров (MM-Transformer, AffectNet, EmotioNet), но пока они считывают в основном поверхностные признаки вроде усталости или напряженности. По прогнозу Мозикова глубокое понимание эмоционального контекста и адаптация под пользователя станут массовыми через 3−7 лет.

Первая польза — в системах психологического здоровья
ИИ-компаньон для пожилых людей — впечатляющая идея, но ближайшие пять лет принесут больший эффект от цифровых аватаров, доступных с любого устройства.
Эмпатичный ИИ в сфере психологического здоровья способен снизить барьер обращения за помощью, дать ощущение поддержки и сделать коммуникацию менее формальной. Это не замена специалисту, но важный первый шаг к помощи.
Подобные решения уже тестируются в телемедицинских и образовательных проектах: от простых чат-агентов до голосовых интерфейсов, адаптирующихся к интонации пользователя. По данным аналитического отчета MarketsandMarkets (2024), мировой рынок эмоционального искусственного интеллекта (Emotion AI) оценивается в 2,74 млрд долларов в 2024 году и может достичь 9,01 млрд долларов к 2030 году, показывая среднегодовой рост почти 22%. Один из самых быстрорастущих сегментов этого рынка — mental health & well-being monitoring, то есть применение эмоциональных моделей для поддержки психического здоровья и оценки эмоционального состояния пользователя.

Приватность и этика: эмоции как личные данные
Система, которая анализирует эмоции, неизбежно становится формой наблюдения.
Эмоциональные реакции человека — личная информация, и степень риска здесь не меньше, чем при обработке биометрии. Решать это нужно заранее — через архитектуру системы.
Он выделяет три базовых принципа:
- локальная обработка — эмоции интерпретируются прямо на устройстве, без передачи «сырого» изображения или звука в облако;
- прозрачность и контроль — пользователь должен понимать, что собирается, и иметь возможность удалить данные;
- регуляции и стандарты — по аналогии с медицинскими, особенно в отношении уязвимых групп.

Важно учитывать, что Европейский AI Act уже относит распознавание эмоций в школах и на рабочих местах к высокорисковым практикам. Это значит, что приватность должна быть встроена по умолчанию, а не добавляться «задним числом».
Понимать или имитировать: где граница «эмпатии»
Может ли ИИ по-настоящему понять человека? В буквальном смысле — нет. Эмоции формируются не только внешними сигналами, но и внутренней биохимией — гормонами, нейромедиаторами, физиологией.
Однако если под «пониманием» мы подразумеваем способность учитывать эмоциональный контекст и менять поведение, то такого уровня ИИ вполне может достичь. Машина не «чувствует» эмоцию, но может реагировать на нее адекватно — и этого достаточно, чтобы сделать взаимодействие с ней более человечным.

Развитие эмоционального ИИ — не гонка за «человечностью», а попытка сделать технологии чуткими, но безопасными. Настоящая эмпатия машины заключается не в подражании чувствам, а в способности помочь человеку лучше понять себя — не нарушая его границ и приватности.

