
В последнее время искусственный интеллект стал частью повседневной жизни людей — он помогает готовиться к учебе, налаживает тайм-менеджмент, а для некоторых является собеседником и жизненным советником. Но за пределами бытового развлекательного использования ИИ начинает играть все более важную роль в научных исследованиях, особенно в области биологии, медицины и ядерной физики. В тех областях, где знание может как помочь, так и навредить.
Возникает резонный вопрос — а должен ли ИИ иметь доступ ко всей информации человечества, включая данные о биологическом оружии, вирусах и ядерных технологиях?
На первый взгляд, автоматизация исследований может ускорить развитие науки и спасти миллионы жизней, сократив время и затраты. Но одновременно появляются биоэтические вопросы, на которые уже стоит обратить внимание. Рассмотрим, какие возможности дает ИИ, какие блага и угрозы несет, а как можно предотвратить будущие катастрофы.
Помощник или потенциальный злодей?
ИИ уже сегодня активно используется в биомедицинских исследованиях — алгоритмы машинного обучения применяются для моделирования распространения эпидемий, прогнозирования мутаций вирусов и ускоренного создания вакцин. Это позволяет предсказывать и реагировать на эпидемии гораздо быстрее, чем в прошлом, и предотвратить негативные последствия как для здравоохранения, так и для экономики.
Но представим, что те же самые алгоритмы машинного обучения будут пытаться создать более опасные и заразные вирусы — хотя бы ради фундаментальных знаний в области эволюционной биологии. Впрочем, зачем представлять — в 2023 году группа ученых из Гарварда и Оксфорда разработала модель под названием EVEscape, которая предсказывает, как могут мутировать вирусы, сохраняя заразность. Но тут важно учесть, для чего была создана модель — для помощи в разработке вакцин и предсказания их действий, ибо вирусы мутируют постоянно, и новый штамм может иметь устойчивость к уже разработанной вакцине. Все дело в использовании знания — предсказание ИИ генетической структуры сверхопасного штамма вируса может быть использовано как для создания биологического оружия, так и для предотвращения его распространения.

Двойные риски, когда технологии могут быть использованы как для мирного использования, так и в военных целях, называют «Технологиями двойного назначения». Они особенно актуальны в условиях, когда доступ к ИИ становится массовым, и в том числе алгоритмы машинного обучения учатся на узкоспециализированных знаниях, которые ранее были доступны лишь узкому кругу специалистов. Эксперт отметил размытость границ между «полезным» и «опасным» знанием, проведя аналогию с человеком:
Специалист в области физики и математики способен создать как МРТ, так и ядерное оружие. В этом контексте ИИ уже имеет доступ к научным основам, давно находящимся в открытом доступе. Сюда также напрашивается аналогия с интернетом: его невозможно полностью отрегулировать, но общество научилось выстраивать защитные механизмы, не разрушая ценность самой технологии.
Проблема ограничения знания является куда более глубокой, чем кажется на первый взгляд. Использовать знание во «вред» может и сам человек, если почерпнет нужные компетенции. В случае ИИ это лишь инструмент — та же самая книга или калькулятор, но способный обучаться и подстраиваться под человека. Искусственный интеллект не может выйти за рамки прописанного кода, как бы ни сочиняли научные фантасты.
ИИ в борьбе с эпидемиями
В последнее время одним из главных достижений ИИ в науке стало его применение в борьбе с эпидемиями. В 2020 году, когда мир столкнулся с коронавирусной инфекцией, ученые использовали ИИ для разработки вакцин против SARS-CoV-2. Системы машинного обучения помогли ученым проанализировать структуру вируса, найти слабые места и разработать наиболее эффективные препараты.
Чтобы оценить характер распространения инфекционных заболеваний, ученые используют математические модели SIR — восприимчивые/инфицированные/выздоровевшие, и SIS — восприимчивые/инфицированные/снова восприимчивые, когда у пациента не выработался иммунитет после заражения. Эти две модели позволяют предсказывать, как будет развиваться вспышка, сколько людей заболеет, и какие меры по профилактике и лечению будут наиболее эффективны.

Искусственный интеллект помогает ученым обрабатывать огромный массив данных в реальном времени, что особенно важно в условиях ограниченного наблюдения — в удаленных от цивилизации поселений или в зонах военных конфликтов, где система сбора и передачи данных встречается с особенными вызовами.
Для работы в таких ограниченных условиях была создана система эпидемиологического мониторинга EPIWATCH. Система автоматически анализирует огромное количество информации из новостных сообщений, социальных сетей, медицинских отчетов и других открытых источников на более чем 50 языках, что позволяет системе «ловить» сигналы о вспышках заболеваний задолго до того, как они будут официально зарегистрированы или объявлены органами здравоохранения. Ученые отмечают, что EPIWATCH могла бы обнаружить такие крупные эпидемии, как вспышка Эболы в Западной Африке в 2013 году и начало пандемии COVID-19 в конце 2019 года, задолго до официальных уведомлений Всемирной организации здравоохранения.
Подобные модели подчеркивают потенциал использования ИИ в качестве инструмента для профилактики и предсказания чрезвычайных ситуаций, но функционирование подобных программ достигает наивысшей эффективности при предоставлении им наиболее подробной информации — в том числе о вирусах, географии и персональных генетических данных.

Однако даже такие системы требуют строгого контроля — как мы уже говорили, нейросети лишь инструмент, и только пользователь решает, в какое русло направить их использование. Если злоумышленники получат доступ к генетическим данным и ИИ моделям, им ничего не помешает создать наиболее заразный и смертельный вирус. Разве что нехватка компетенций и сообразительности. Виктор Немченко рассказал об исследованиях, в которых без должного контроля использование ИИ могло как навредить, так и помочь людям:
В недавнем исследовании ученые показали, что языковые модели способны генерировать тысячи потенциально токсичных белков и молекул, включая аналоги известных природных ядов. Тем не менее, возможность вреда не отменяет колоссальной пользы — модель AlphaFold от DeepMind предсказала структуры более 200 миллионов белков, ускорив создание новых лекарств, вакцин и биотехнологий.
И снова повествование возвращается к фундаментальной проблеме использование знания как такового: человек также мог сконструировать токсичные белки и без помощи ИИ, а просто зная нужные химические принципы. Но это не отменяет факта необходимости регулирования использования ИИ в научных разработках.
Ядерный ИИ — между защитой и угрозой
Не менее сложной с точки зрения этики является ситуация с применением ИИ в области ядерных технологий. Современные системы управления ядерным оружием все чаще используют элементы искусственного интеллекта для повышения точности реакций, снижения количества ошибок и производственных затрат.
Но и здесь не без рисков. Автоматизированные системы раннего предупреждения могут принимать решения слишком быстро, без достаточной проверки данных на достоверность, и в истории уже были подобные прецеденты. В ноябре 1979 года компьютерные системы раннего предупреждения Северной Америки ошибочно приняли тренировочный сценарий за реальную массовую ракетную атаку СССР. Система сообщила о запуске около 250, а затем и 2200 баллистических ракет, что привело к полной боевой готовности стратегических сил США и необходимости принятия решения о ядерном ответе в течение нескольких минут. Тренировочный сценарий, ставший причиной переполоха, был случайно загружен в оперативный компьютер одним из сотрудников, откуда данные пошли в систему раннего предупреждения как реальные. Только спустя 6−7 минут спутники и радары подтвердили отсутствие атаки.

Этот инцидент показывает, насколько критична точность и надежность систем раннего предупреждения, в которых уже тогда использовались компьютерные алгоритмы. Если бы подобная ошибка произошла в системе, полностью управляемой искусственным интеллектом без человеческого контроля, вероятность ошибочного запуска ядерного оружия поднялась бы на десятки процентов.
Сегодняшние системы ИИ способны обрабатывать больше информации, но они все равно не идеальны. Проблема в том, что ИИ не всегда понимает контекст, в рамках которого поставлена задача. Это называется «проблемой выравнивания» — вопрос о соответствии ИИ целям и ожиданиям человека. То есть если системе задана задача «защитить страну», она может выбрать самый простой, но при этом опасный способ — например, запустить ответный удар, даже если атака окажется ложной. В связи с этим многие эксперты настаивают на необходимости человеческого контроля в принятии решений, связанных с ядерным оружием.
Регулирование как минимизация рисков
Для минимизации любых рисков необходимы строгие нормативные и правовые рамки со стороны человека. В мире уже существуют международные соглашения, такие как Конвенция о запрещении биологического и токсинного оружия BTWC и Конвенция о химическом оружии CWC. Однако ни один из этих документов не учитывают новые проблемы, связанные с развитием ИИ.
На международном уровне проводятся саммиты по безопасности искусственного интеллекта, где обсуждаются пути регулирования его использования. В 2023 году был проведен AI Safety Summit, на котором представители разных стран договорились о необходимости тестирования передовых моделей ИИ, внедрения стандартов безопасности и создания единой базы данных инцидентов, в которых использование ИИ привело к прямой угрозе жизни или здоровью человека.

Что дальше?
Тем не менее запрет на использование искусственного интеллекта в науке лишь замедлит прогресс и лишит человечество открытий и возможностей. Решение новых проблем скрыто в балансе. Необходимы строгие протоколы безопасности для работы с ИИ в чувствительных областях, и особенно важно участие человека или групп лиц в принятии решений в критических ситуациях.
Научное сообщество, политики, разработчики ИИ и общественность должны вместе работать над тем, чтобы технологии служили человеку, а не становились источником новой угрозы. Только через диалог, контроль и сотрудничество люди смогут сохранить безопасность и продолжить движение вперед к открытиям, а не к закрытым дверям технофобии.
Ранее мы рассказывали о том, возможно ли полностью автономное исследование при помощи ИИ.