Может ли ИИ уничтожить человечество? Исследование вероятности такого исхода

Что, если искусственный интеллект однажды выйдет из-под контроля и станет причиной исчезновения человечества? Ученые из RAND Corporation проанализировали, насколько реальна такая угроза, и пришли к шокирующим выводам.
Владимир Барышев
Автор Наука Mail
Иллюстрация информационного мозга ИИ
ИИ, несмотря на свою возможную угрозу, не может стать причиной полного уничтожения человечества, так как для этого ему нужно преодолеть множество сложных препятствий и ограниченийИсточник: Unsplash

В 2024 году несколько сотен ученых в области ИИ заявили, что минимизация риска исчезновения человечества из-за ИИ должна стать глобальным приоритетом. Причем наряду с такими угрозами, как пандемии и ядерная война. Эти слова вызвали значительные обсуждения среди ученых. Несмотря на популярную в научной фантастике тему уничтожения всего человечества ИИ, специалисты из RAND Corporation, исследующей национальную безопасность, детально изучили этот вопрос.

Команда, возглавляемая ученым из RAND, выдвинула гипотезу, что не существует сценария, в котором ИИ мог бы реально угрожать полным исчезновением человечества. В своих исследованиях они попытались доказать, что человеческий род слишком велик, адаптивен и разнообразен, чтобы ИИ мог бы уничтожить его. Однако чтобы подтвердить или опровергнуть эту гипотезу, необходимо было изучить возможные способы, которыми ИИ мог бы привести к исчезновению человеческой цивилизации.

Заброшенный город
Даже самые опасные пандемии, спровоцированные ИИ, не приведут к полному исчезновению человеческого рода, так как небольшая часть людей сможет выжить и восстановить популяциюИсточник: Unsplash

Одной из самых обсуждаемых угроз является возможность использования ИИ для разжигания ядерной войны. Однако специалисты отметили, что даже в случае глобального ядерного конфликта с использованием всех существующих ядерных боеголовок, человечество не будет полностью уничтожено. Исследования показали, что даже в случае ядерного зимнего сценария, многие люди смогли бы выжить, и планета в целом не стала бы необитаемой. Хотя последствия были бы катастрофическими, это, вероятно, не приведет к полному исчезновению человеческой расы.

С другой стороны, пандемии представляют собой более реальную угрозу для человечества. Учитывая, что эпидемии в истории уже приводили к значительным потерям, создание высоколетальных патогенов с использованием ИИ может стать потенциальной угрозой. Однако для этого ИИ нужно было бы убедить людей помогать ему в распространении таких болезней, что является очень сложной задачей.

Гуманоидный ИИ
ИИ может повлиять на климат, но, несмотря на возможные катастрофы, человечество сможет адаптироваться, например, переселяясь в более пригодные для жизни регионыИсточник: Unsplash

Что касается изменений климата, то даже если бы ИИ ускорил антропогенные изменения климата, человечество, скорее всего, нашло бы способы адаптации, переместившись в другие климатические зоны. Тем не менее, ИИ мог бы использовать более мощные парниковые газы, которые способны повысить температуру на планете до таких уровней, при которых выжить было бы невозможно.

При этом ученые подчеркнули, что все сценарии, в которых ИИ мог бы стать причиной исчезновения человечества, требуют огромных усилий и нарушений текущих ограничений. ИИ должен был бы обладать четырьмя ключевыми способностями: ставить цель уничтожения человечества, контролировать важнейшие физические системы (например, ядерные арсеналы), скрывать свои действия и убеждать людей в своих намерениях.

Старый противогаз
Для того, чтобы ИИ стал реальной угрозой, он должен обладать четырьмя ключевыми характеристиками, включая способность контролировать системы и манипулировать людьми. Однако вероятность этого крайне низкаИсточник: Unsplash

Невозможность создания ИИ, способного уничтожить человечество, безусловно, не означает, что ИИ не представляет угрозу в других формах. Даже если ИИ не сможет уничтожить всех людей, он может быть использован для других целей, таких как кибератаки, манипуляции или массовые нарушения.

Вместо того, чтобы полностью отказаться от разработки ИИ, ученые предлагают подход, при котором будут учитываться риски и изъяны в системе. Это включает в себя не только создание безопасных алгоритмов ИИ, но и снижение других глобальных угроз, таких как ядерные арсеналы и химические вещества, усиливающие изменения климата.

Необходимо работать над обеспечением безопасности и минимизацией рисков. ИИ может приносить огромные преимущества, но важно продолжать исследовать его возможные угрозы и способы их предотвращения. 

С развитием искусственного интеллекта возникают новые возможности и угрозы, особенно в области биотехнологий. О том, как нейросети могут быть использованы как для прогресса, так и для создания биологических угроз, можно прочитать в этой статье.