Новая технология преодолевает проблему ложных корреляций в ИИ

Когда искусственный интеллект начинает путаться в хаосе лишних сигналов, ученые открывают простой прием — устранять спорные данные, а не искать их вручную, и тем самым кардинально улучшают работу алгоритмов.
Владимир Барышев
Автор Наука Mail
ИИ способен опираться на случайные совпадения в данных, что порождает неверные выводы
ИИ способен опираться на случайные совпадения в данных, что порождает неверные выводыИсточник: Unsplash

Ученые из Северной Каролины предложили простой, но эффективный способ избавить алгоритмы искусственного интеллекта от ложных корреляций, когда модели принимают решения на основе несущественных и вводящих в заблуждение признаков.

Их работа, опубликованная на arXiv и представленная на конференции ICLR в Сингапуре, показывает, что достаточно удалить небольшой, но «проблемный» фрагмент обучающих данных — и модель перестанет опираться на ложные зависимости, сохранив свою точность.

Ложные корреляции возникают из‑за «смещения в сторону простоты»: во время тренировки ИИ запоминает самые легкие для распознавания признаки. К примеру, если большинство собак на фото носит ошейники, модель может «решить», что наличие ошейника и есть главный признак собаки. В итоге она с высокой долей уверенности примет кошку в ошейнике за пса.

Ключевая идея исследования — не пытаться заранее найти и удалить эти вводящие в заблуждение признаки вручную, а вычислять, какие отдельные примеры в датасете оказались для сети наиболее «трудными». Такие образцы, по замыслу авторов, обычно полны нечетких или случайных артефактов — именно они приводят модель к ошибкам.

«Мы оценивали сложность каждого обучающего примера по тому, насколько модель «борется» с ним во время тренировки, — объясняет доцент компьютерных наук, соавтор работы Джун‑Ин Ким. — Удаляя всего несколько процентов самых «тяжелых» примеров, мы автоматически устраняем те данные, в которых скрыты ложные корреляции, при этом практически не затрагивая общую эффективность модели».

Исключение наиболее неоднозначных примеров из обучения повышает точность и стабильность модели
Исключение наиболее неоднозначных примеров из обучения повышает точность и стабильность моделиИсточник: Unsplash

Первым автором статьи выступил аспирант Варун Мулчанданни. Вместе с коллегами он протестировал метод на стандартных бенчмарках и получил улучшение качества, сопоставимое или превосходящее существующие техники, для которых необходимо знать конкретные ложные признаки.

«Наша методика универсальна: она работает даже тогда, когда вы не знаете заранее, какие именно признаки вводят модель в заблуждение, — добавляет Ким. — Если ваша система неожиданно начала хуже выполнять задачи, но вы не понимаете, в чем причина, наш подход поможет выявить и устранить проблему».

Авторы уверены, что удаление самых «трудных» примеров из обучающего набора легко масштабируется и может применяться на любых платформах ИИ, упрощая разработку надежных моделей без длительной ручной очистки данных.

Предлагаем вам также узнать, как искусственный интеллект научился скрывать свои манипуляции от создателей.