Биометрия

Эмоции по данным: как научить ИИ понимать человека

Роботы и виртуальные ассистенты уже учатся распознавать эмоции человека — по лицу, голосу и контексту. Но настоящая эмпатия в ИИ невозможна без культурной нейтральности данных, защиты приватности и понимания границ между имитацией чувств и реальным взаимодействием.
Научный сотрудник Института искусственного интеллекта AIRI
Светловолосая девушка смотрит в камеру, на ее лице и вокруг него инфографика с информацией о ней
Эмоции как данные: как алгоритмы учатся читать по лицуИсточник: Freepik

По данным исследования, опубликованного на TechXplore в сентябре 2025 года, новые поколения роботов получают способность определять эмоциональное состояние человека по выражению лица и тону голоса. Это направление активно развивается — и требует осторожности, считает Михаил Мозиков, научный сотрудник Института AIRI.

Эмоциональные стереотипы: улыбка не всегда означает радость

Даже базовые эмоции — радость, грусть, страх — имеют культурные оттенки. Исследования показывают, что способы выражения чувств зависят от норм поведения, контекста и экспрессивности культуры.

Если модель обучена на ограниченном массиве данных, она может неверно интерпретировать эмоции представителей других регионов или этнических групп. Для одного нейтральное выражение лица — норма, для другого это признак напряжения. Эмпатичный ИИ должен уметь учитывать историю взаимодействий и контекст пользователя.
Михаил Мозиков
Научный сотрудник Института искусственного интеллекта AIRI

Именно поэтому современные команды по разработке эмоциональных моделей переходят к мультимодальному подходу и активно обсуждают создание кросс-культурных, этически собранных датасетов.

Люди разных национальностей стоят и разговаривают друг с другом
Культурный код: как избежать предвзятости ИИ в многонациональном миреИсточник: Freepik

От мимики к контексту: главный технический вызов

Распознать статичную эмоцию по фотографии — задача, решенная уже давно.

Сложность в другом — связать воедино мимику, голос, смысл слов и ситуацию.

Главный вызов — мультимодальная интеграция и персонализация. Один и тот же сигнал может значить разное для разных людей. Только объединение визуальных, звуковых и семантических данных позволит ИИ реагировать адекватно.

Такие системы начинают использовать архитектуры на основе мультимодальных трансформеров (MM-Transformer, AffectNet, EmotioNet), но пока они считывают в основном поверхностные признаки вроде усталости или напряженности. По прогнозу Мозикова глубокое понимание эмоционального контекста и адаптация под пользователя станут массовыми через 3−7 лет.

Улыбающаяся девушка в коричневой кофте на белом фоне
За маской улыбки: почему ИИ должен понимать контекст, а не только мимикуИсточник: Freepik

Первая польза — в системах психологического здоровья

ИИ-компаньон для пожилых людей — впечатляющая идея, но ближайшие пять лет принесут больший эффект от цифровых аватаров, доступных с любого устройства.

Эмпатичный ИИ в сфере психологического здоровья способен снизить барьер обращения за помощью, дать ощущение поддержки и сделать коммуникацию менее формальной. Это не замена специалисту, но важный первый шаг к помощи.

Подобные решения уже тестируются в телемедицинских и образовательных проектах: от простых чат-агентов до голосовых интерфейсов, адаптирующихся к интонации пользователя. По данным аналитического отчета MarketsandMarkets (2024), мировой рынок эмоционального искусственного интеллекта (Emotion AI) оценивается в 2,74 млрд долларов в 2024 году и может достичь 9,01 млрд долларов к 2030 году, показывая среднегодовой рост почти 22%. Один из самых быстрорастущих сегментов этого рынка — mental health & well-being monitoring, то есть применение эмоциональных моделей для поддержки психического здоровья и оценки эмоционального состояния пользователя.

Парень сидит за ноутбуком и записывает голосовое сообщение на телефон
Голос как паспорт эмоций: что может узнать ИИ по интонации и тембруИсточник: Unsplash

Приватность и этика: эмоции как личные данные

Система, которая анализирует эмоции, неизбежно становится формой наблюдения.

Эмоциональные реакции человека — личная информация, и степень риска здесь не меньше, чем при обработке биометрии. Решать это нужно заранее — через архитектуру системы.

Он выделяет три базовых принципа:

  • локальная обработка — эмоции интерпретируются прямо на устройстве, без передачи «сырого» изображения или звука в облако;
  • прозрачность и контроль — пользователь должен понимать, что собирается, и иметь возможность удалить данные;
  • регуляции и стандарты — по аналогии с медицинскими, особенно в отношении уязвимых групп.
Девушка закрывает лицо руками, на которых нарисовано лицо в технике боди-арт
Приватность под вопросом: где граница анализа наших чувств?Источник: Blikk

Важно учитывать, что Европейский AI Act уже относит распознавание эмоций в школах и на рабочих местах к высокорисковым практикам. Это значит, что приватность должна быть встроена по умолчанию, а не добавляться «задним числом».

Понимать или имитировать: где граница «эмпатии»

Может ли ИИ по-настоящему понять человека? В буквальном смысле — нет. Эмоции формируются не только внешними сигналами, но и внутренней биохимией — гормонами, нейромедиаторами, физиологией.

Однако если под «пониманием» мы подразумеваем способность учитывать эмоциональный контекст и менять поведение, то такого уровня ИИ вполне может достичь. Машина не «чувствует» эмоцию, но может реагировать на нее адекватно — и этого достаточно, чтобы сделать взаимодействие с ней более человечным.
Робот помогает дедушке написать письмо
Имитация и понимание: может ли машина по-настоящему сопереживать?Источник: Freepik

Развитие эмоционального ИИ — не гонка за «человечностью», а попытка сделать технологии чуткими, но безопасными. Настоящая эмпатия машины заключается не в подражании чувствам, а в способности помочь человеку лучше понять себя — не нарушая его границ и приватности.