
Специалисты из университетов Лидса, Рединга, Гринвича и Линкольна проверили способность 664 участников различать реальные лица и лица, созданные с помощью программного обеспечения StyleGAN3. Без какой-либо подготовки люди с выдающимися способностями к распознаванию лиц (так называемые «суперраспознаватели») правильно идентифицировали подделки в 41% случаев, в то время как участники с обычными способностями — лишь в 31%.
Однако после краткого обучающего курса точность возросла: суперраспознаватели достигли 64% точности, а обычные участники — 51%. Во время обучения людям показывали характерные артефакты, которые часто встречаются у изображений, созданных ИИ: неестественные линии волос, несоответствующие или деформированные уши или серьги, а также неровные зубы.
Интересно, что тренировка одинаково повлияла на обе группы, что позволяет предположить: суперраспознаватели, вероятно, используют иные визуальные подсказки для определения поддельных лиц, а не просто лучше замечают технические погрешности.

Исследование проводилось с использованием самой передовой на тот момент системы генерации лиц — StyleGAN3, что представляет собой серьезный вызов по сравнению с предыдущими работами, использовавшими более старые алгоритмы. Результаты опубликованы в научном журнале Royal Society Open Science.
Сгенерированные компьютером лица представляют реальные угрозы безопасности: их используют для создания фальшивых профилей в соцсетях, обхода систем верификации и изготовления поддельных документов. Лица, созданные последним поколением ПО на основе ИИ, чрезвычайно реалистичны — люди часто оценивают их как более реалистичные, чем настоящие.
По словам доктора Грей, предложенная методика обучения проста и быстро внедряется. Сочетание такой подготовки с естественными способностями суперраспознавателей может помочь в решении реальных проблем, таких как онлайн-верификация личности. В будущих исследованиях ученые планируют выяснить, насколько устойчив эффект от тренировки, и как навыки суперраспознавателей могут дополнить автоматические системы детекции ИИ.
Ранее Наука Mail рассказывала о первом случае увольнения в России за пранк с помощью ИИ.

