Искусственный интеллект

Люди привносят гендерную предвзятость в работе с ИИ

Новое исследование показало, что люди переносят гендерные предрассудки на взаимодействие с искусственным интеллектом, чаще эксплуатируя ИИ, представленный как женщина, и проявляя больше недоверия к ИИ с мужской идентификацией.
Автор Наука Mail
Это первое исследование, изучающее роль пола машин в сотрудничестве человека и искусственного интеллекта с использованием систематического эмпирического подхода
Это первое исследование, изучающее роль пола машин в сотрудничестве человека и искусственного интеллекта с использованием систематического эмпирического подходаИсточник: Нейросеть Kandinsky

Люди склонны привносить укоренившиеся гендерные предрассудки в свое общение с искусственным интеллектом, что проявляется в разных моделях сотрудничества и доверия. К такому выводу пришли ученые из Тринити-колледжа в Дублине и Университета Людвига-Максимилиана в Мюнхене. Проведенное исследование стало первой в своем роде работой, где с помощью систематического эмпирического подхода была изучена роль гендерной идентификации машин в кооперации с человеком.

Результаты эксперимента, в котором приняли участие 402 человека, демонстрируют, что участники чаще эксплуатировали ИИ, обозначенный как женщина, и с большим недоверием относились к ИИ, представленному как мужчина. Эти модели поведения оказались аналогичны тем, что наблюдаются при взаимодействии с людьми, причем в среде «человек-ИИ» эксплуатация агента с женской гендерной меткой была даже более выраженной.

Полученные данные имеют далеко идущие последствия для организаций, которые занимаются проектированием, внедрением и регулированием интерактивных систем искусственного интеллекта. Авторы работы подчеркивают, что гендерные ожидания, традиционно связываемые с человеческим общением, автоматически переносятся и на сотрудничество с машинами. Это оказывает существенное влияние на то, как будут функционировать автоматизированные системы на рабочих местах и в повседневной жизни.

Борьба с предвзятостью в ИИ необходима для предотвращения гендерной дискриминации и создания справедливых систем
Борьба с предвзятостью в ИИ необходима для предотвращения гендерной дискриминации и создания справедливых системИсточник: Midjourney

Сепиде Базази, первый автор исследования и приглашенный научный сотрудник Школы социальных наук и философии Тринити-колледжа, отметила, что поскольку ИИ становится неотъемлемой частью повседневной жизни, крайне важно тщательно учитывать гендерное представительство при его проектировании. Это необходимо для максимального вовлечения пользователей и повышения уровня доверия к автоматизированным системам.

По словам соавтора исследования Тахи Яссери, директора Центра социологии человека и машин Тринити-колледжа, простое присвоение ИИ гендерной маркировки способно кардинально изменить отношение людей к нему. Если организации наделяют ИИ-агентов человеческими чертами, включая гендер, им следует заранее учитывать последствия. Юргис Карпус, научный сотрудник Мюнхенского университета Людвига-Максимилиана, добавил, что исследование поднимает важную дилемму. Наделение агентов ИИ человеческими чертами, с одной стороны, может способствовать более тесному сотрудничеству, но с другой — грозит переносом и усилением нежелательных гендерных предубеждений, существующих в человеческом обществе.

Ранее ученые предложили поэтапный план безопасного внедрения ИИ в университеты.