
В 2024 году несколько сотен ученых в области ИИ заявили, что минимизация риска исчезновения человечества из-за ИИ должна стать глобальным приоритетом. Причем наряду с такими угрозами, как пандемии и ядерная война. Эти слова вызвали значительные обсуждения среди ученых. Несмотря на популярную в научной фантастике тему уничтожения всего человечества ИИ, специалисты из RAND Corporation, исследующей национальную безопасность, детально изучили этот вопрос.
Команда, возглавляемая ученым из RAND, выдвинула гипотезу, что не существует сценария, в котором ИИ мог бы реально угрожать полным исчезновением человечества. В своих исследованиях они попытались доказать, что человеческий род слишком велик, адаптивен и разнообразен, чтобы ИИ мог бы уничтожить его. Однако чтобы подтвердить или опровергнуть эту гипотезу, необходимо было изучить возможные способы, которыми ИИ мог бы привести к исчезновению человеческой цивилизации.

Одной из самых обсуждаемых угроз является возможность использования ИИ для разжигания ядерной войны. Однако специалисты отметили, что даже в случае глобального ядерного конфликта с использованием всех существующих ядерных боеголовок, человечество не будет полностью уничтожено. Исследования показали, что даже в случае ядерного зимнего сценария, многие люди смогли бы выжить, и планета в целом не стала бы необитаемой. Хотя последствия были бы катастрофическими, это, вероятно, не приведет к полному исчезновению человеческой расы.
С другой стороны, пандемии представляют собой более реальную угрозу для человечества. Учитывая, что эпидемии в истории уже приводили к значительным потерям, создание высоколетальных патогенов с использованием ИИ может стать потенциальной угрозой. Однако для этого ИИ нужно было бы убедить людей помогать ему в распространении таких болезней, что является очень сложной задачей.

Что касается изменений климата, то даже если бы ИИ ускорил антропогенные изменения климата, человечество, скорее всего, нашло бы способы адаптации, переместившись в другие климатические зоны. Тем не менее, ИИ мог бы использовать более мощные парниковые газы, которые способны повысить температуру на планете до таких уровней, при которых выжить было бы невозможно.
При этом ученые подчеркнули, что все сценарии, в которых ИИ мог бы стать причиной исчезновения человечества, требуют огромных усилий и нарушений текущих ограничений. ИИ должен был бы обладать четырьмя ключевыми способностями: ставить цель уничтожения человечества, контролировать важнейшие физические системы (например, ядерные арсеналы), скрывать свои действия и убеждать людей в своих намерениях.

Невозможность создания ИИ, способного уничтожить человечество, безусловно, не означает, что ИИ не представляет угрозу в других формах. Даже если ИИ не сможет уничтожить всех людей, он может быть использован для других целей, таких как кибератаки, манипуляции или массовые нарушения.
Вместо того, чтобы полностью отказаться от разработки ИИ, ученые предлагают подход, при котором будут учитываться риски и изъяны в системе. Это включает в себя не только создание безопасных алгоритмов ИИ, но и снижение других глобальных угроз, таких как ядерные арсеналы и химические вещества, усиливающие изменения климата.
Необходимо работать над обеспечением безопасности и минимизацией рисков. ИИ может приносить огромные преимущества, но важно продолжать исследовать его возможные угрозы и способы их предотвращения.
С развитием искусственного интеллекта возникают новые возможности и угрозы, особенно в области биотехнологий. О том, как нейросети могут быть использованы как для прогресса, так и для создания биологических угроз, можно прочитать в этой статье.