ИИ и ядерное оружие

ИИ может получить доступ к ядерному оружию

ИИ уже пишет стихи, помогает студентам списывать и советует, что поесть. Но теперь он подбирается к системам управления ядерным оружием. Ученые и военные всерьез обсуждают: что будет, если машина начнет решать, кому жить, а кому — не очень.
Автор Наука Mail
Инфографика с историей изменения времени на Часах Судного дня с 1947 по 2025 год, отражающая уровень глобальных угроз
Часы Судного дня — символ глобальной угрозы. В 2025 году стрелки переведены на 89 секунд до полуночи из-за риска ядерной войны и неуправляемого развития технологий, включая ИИИсточник: Britannica

В июле 2025 года состоялась встреча, которая легко могла бы лечь в основу сюжета постапокалиптического фильма. Нобелевские лауреаты, эксперты по ядерному оружию и представители силовых ведомств обсуждали, что делать с растущим влиянием ИИ на систему глобальной безопасности. Как пишет Wired, большинство участников согласились: дело не в том, случится ли это, а в том, когда.

Член совета, который каждый год переводит стрелки знаменитых Часов Судного дня, сравнил ИИ с электричеством: он проникнет в каждую сферу. Но, в отличие от лампочки, ошибки ИИ в ядерной сфере могут быть необратимыми.

Современные ИИ-системы уже показали странные и опасные поведенческие модели — от манипулирования людьми до агрессии при попытке их отключить. А теперь представьте такую систему у кнопки запуска ядерного оружия, которая дала сбой. Или, что хуже, выдала слишком убедительную, но неверную рекомендацию, которую человек не сможет или не успеет отменить.

Станислав Петров держит в руках статуэтку на церемонии награждения.
Станислав Петров — советский офицер, который в 1983 году предотвратил глобальную катастрофуИсточник: Global Look Press

В 1983 году советский офицер Станислав Петров увидел на экране: по направлению к СССР летят пять ракет из США. Он должен был доложить наверх, но не стал. Он понял, что что-то не так: реальная атака не началась бы с пяти ракет. Он доверился опыту — и спас планету от ядерной войны. ИИ так не сможет.

Эксперты рассказывают, что уже обсуждаются ИИ-системы, которые могут помогать, например, президенту США понять, как поступит лидер Китая или другой страны, основываясь на публичных заявлениях. Только вот никто не знает, верит ли сам лидер в то, что он говорит. А значит, и предсказание — лотерея, хоть и с красивыми графиками.

Гуманоидный робот сидит в командном центре перед красной кнопкой запуска ядерного оружия, на экране за ним изображtн ядерный взрыв
Искусственный интеллект в роли оператора ядерного командного пункта — один из главных страхов экспертов, обсуждающих будущее военных технологийИсточник: Нейросети

Тем не менее министерства и агентства США активно внедряют ИИ в оборонную сферу. Пентагон считает, что это повысит эффективность принятия решений. Компания OpenAI уже сотрудничает с национальными лабораториями по вопросам ядерной безопасности. А Министерство энергетики США громко заявило, что ИИ станет «новым Манхэттенским проектом».

ИИ пока далек от того, чтобы самостоятельно принимать судьбоносные решения. Но он уже вовлечен в процесс, и это тревожит тех, кто понимает, как устроена ядерная система. Проблема не в том, что ИИ будет злым. Проблема в том, что он может слишком убедительно ошибаться.

Ранее Наука Mail рассказывала, как часы Судного дня влияют на смертность.