Какими будут дипфейки в 2026 году: что говорят эксперты

Прогресс в области искусственного интеллекта приведет к появлению в 2026 году нового поколения дипфейков. Они эволюционируют от статичных видео к динамическим, способным на взаимодействие в реальном времени, что создает новые проблемы для цифровой безопасности.
Автор Наука Mail
Лица, голоса и движения тела, созданные системами искусственного интеллекта, становятся почти неотличимыми от людей, нарушая восприятие и безопасность онлайн-контента
Лица, голоса и движения тела, созданные системами искусственного интеллекта, становятся почти неотличимыми от людей, нарушая восприятие и безопасность онлайн-контентаИсточник: Unsplash

Качество ИИ-медиаконтента в 2025 году достигло уровня, когда отличить его от подлинных записей стало сложно для обычного человека. Особенно это заметно в условиях видеозвонков с невысоким разрешением или в социальных сетях. Реалистичность таких материалов позволяет вводить в заблуждение широкую аудиторию. Одновременно с улучшением качества произошел и значительный рост количества дипфейков. По данным одной из компаний в сфере кибербезопасности, если в 2023 году в сети было представлено около 500 000 подобных видео, то к 2025 году их число приблизилось к 8 миллионам.

Такая ситуация объясняется рядом технических изменений. Современные модели генерации видео научились создавать стабильные и последовательные изображения лиц без признаков, которые ранее выдавали подделку. Об этом пишет The Conversation. Клонирование голоса также перешло определенный порог: теперь для создания убедительной копии достаточно короткой аудиозаписи. Полученный синтетический голос передает интонации, эмоции и даже особенности дыхания. Это уже активно используется в мошеннических схемах. Кроме того, инструменты для создания дипфейков стали значительно доступнее, что позволяет практически любому пользователю генерировать сложный контент по текстовому описанию.

Качество изображений лиц, голосов и всего тела, создаваемых системами искусственного интеллекта, улучшилось
Качество изображений лиц, голосов и всего тела, создаваемых системами искусственного интеллекта, улучшилосьИсточник: Freepik

Сочетание высокого реализма, большого объема и простоты производства создает серьезные проблемы для своевременного обнаружения подделок, особенно в условиях быстрого распространения информации в медиасреде. Уже сейчас дипфейки наносят ощутимый вред, способствуя распространению дезинформации, целевым преследованиям и финансовым махинациям. В 2026 году ожидается дальнейшее развитие этих технологий. Основной тренд — переход к синтезу в реальном времени. Дипфейки станут интерактивными, способными точно воспроизводить манеру речи и поведения конкретного человека в ходе видеозвонка или прямого эфира. Это позволит обойти многие существующие системы обнаружения, основанные на анализу статичного видео.

В этих условиях традиционные методы проверки, такие как визуальный анализ пикселей, теряют эффективность. Защита будет все больше смещаться на уровень инфраструктуры и цифровых протоколов. Перспективными направлениями считаются внедрение криптографической подписи для медиафайлов, использование стандартов для отметки происхождения контента, а также развитие мультимодальных систем анализа, проверяющих не только видео, но и аудиодорожку, и метаданные. Борьба с дипфейками требует комплексного подхода, сочетающего технологические решения и осведомленность пользователей.

Ранее Наука Mail рассказывала, что в России придумали сервис для выявления поддельных голосов при звонках мошенников.