выгорание

Эксперт: эмоциональный ИИ может стать помощником в психическом здоровье

Искусственный интеллект учится понимать человеческие эмоции — не только по лицу, но и по голосу, интонации и контексту. Но путь к по-настоящему «чутким» машинам лежит через защиту приватности, культурную нейтральность данных и этические ограничения.
Авторы и эксперты
Научный сотрудник Института искусственного интеллекта AIRI
Девушка сидит за столом, опустив голову в ноутбук и обхватив ее руками
ИИ-терапевт будущего: как алгоритмы учатся распознавать тревогу и выгораниеИсточник: Freepik

Роботы и виртуальные ассистенты становятся всё более «эмоциональными» — они уже умеют различать радость, грусть или раздражение по выражению лица и голосу. Как пишет портал TechXplore, ученые разрабатывают системы, способные улавливать настроение человека, чтобы сделать взаимодействие с техникой более естественным.

Однако такая эмпатия — не просто технологическая, а культурная и этическая задача.

Даже базовые эмоции — радость, грусть, страх — выражаются по-разному в разных культурах. Для одного нейтральность — норма, для другого это признак напряжения. Модель, обученная на ограниченных данных, может ошибаться при интерпретации эмоций людей из другой страны или среды.
Михаил Мозиков
Научный сотрудник Института искусственного интеллекта AIRI
Трое молодых людей с разными национальностями
Культурный код эмоций: почему ИИ должен понимать разницу между культурамиИсточник: Freepik

По словам эксперта, чтобы избежать таких «эмоциональных стереотипов», ИИ должен не просто «считывать» мимику, а учитывать историю взаимодействий, контекст и голосовые сигналы пользователя. Это требует мультимодальных моделей — систем, объединяющих изображение, звук и текст.

Наибольший эффект от таких систем, по мнению эксперта, в ближайшие годы проявится не в роботах-компаньонах, а в сфере психологического здоровья.

Робот для пожилых людей — ценная идея, но доступен будет немногим. Гораздо шире — ИИ-агент в формате цифрового аватара, с лицом и голосом, работающий через интернет. В ментальном здоровье это может стать настоящим прорывом: снизить барьер обращения за помощью и дать ощущение поддержки.

Но вместе с пользой растут и риски. Система, которая постоянно отслеживает эмоции, фактически превращается в инструмент наблюдения.

Девушка держит руку парня
Цифровой помощник, а не замена: как ИИ дополнит работу психологов и психотерапевтов.Источник: Unsplash
Эмоциональные реакции — личная информация. Поэтому нужно закладывать защиту сразу: локальную обработку, прозрачность для пользователя и этические рамки, чтобы такие технологии не использовались, например, в рекламе или в работе с уязвимыми группами.

Так, в Европе этот вопрос уже регулируется: AI Act относит распознавание эмоций в школах и на рабочих местах к высокорисковым практикам, а в ряде случаев — прямо запрещает их использование.

Ранее мы рассказывали о нейросетях в науке в нашем специальном проекте.