
Технологии достигли уровня, когда один оператор может развернуть тысячи реалистичных ИИ-персон, которые способны маскироваться под реальных пользователей, формировать повестку и даже менять исход выборов.
В отличие от традиционных ботнетов, эти автономные агенты используют продвинутые языковые модели и системы с несколькими агентами. Они координируются в реальном времени, адаптируются к обратной связи и поддерживают целостные нарративы в тысячах аккаунтов одновременно. Создавая иллюзию «народной поддержки», они могут проводить миллионы микротестов, чтобы находить самые убедительные сообщения и формировать синтетический консенсус по ключевым вопросам.

Полномасштабные скоординированные атаки таких роев пока остаются теоретической угрозой, но первые тревожные сигналы уже видны. Как отмечает профессор информатики университета Британской Колумбии (Канада) Кевин Лейтон-Браун, дискурс на недавних выборах в США, Тайване, Индонезии и Индии уже подвергался влиянию через дипфейк-видео и сфабрикованные новостные ресурсы. Также наблюдаются попытки пропагандистских сетей заполнить интернет контентом, предназначенным для «отравления» данных, на которых обучаются будущие ИИ.
Эксперты опасаются, что следующее крупное голосование может стать испытательным полигоном для этой технологии.
Мы не должны предполагать, что общество останется неизменным с появлением таких систем. Вероятным результатом станет падение доверия к незнакомым голосам в соцсетях, что усилит влияние знаменитостей и затруднит прорыв настоящих гражданских инициатив
В работе над статьей также приняли участие специалисты из США, Великобритании, Германии, Норвегии и других стран. Исследование опубликовано в журнале Science.
Ранее Наука Mail рассказывала, как ИИ способен помочь урегулировать международные конфликты.

