Как защититься от ИИ, который может спроектировать биоугрозу

В недалеком будущем создать вирус может не ученый в биолаборатории, а обычный пользователь с доступом к интернету и продвинутой нейросетью. ИИ, способный за секунды проектировать новые белки, дает мощный инструмент в руки медицины — но также открывает дверь к созданию опасных токсинов и биологических угроз, которые еще недавно казались фантастикой.
Владимир Барышев
Автор Наука Mail
В 2023 году более 130 ученых подписали международное соглашение об ответственном использовании ИИ в белковой инженерии, подчеркивая необходимость саморегулирования.
В 2023 году более 130 ученых подписали международное соглашение об ответственном использовании ИИ в белковой инженерии, подчеркивая необходимость саморегулирования.Источник: Unsplash

Статья, опубликованная в журнале Nature Biotechnology, отмечает, что ИИ-системы, такие как RFdiffusion и ProGen, предсказывают структуру белков на основе их аминокислотной последовательности и генерируют новые белки с уникальными функциями. Недавно ученые показали, как ИИ проектирует белки за несколько секунд. Это открывает огромные перспективы для науки. Но процесс также поднимает вопросы безопасности, так как создать токсичные вещества или вирусные последовательности теперь можно без особых знаний биотехнологий.

Менди Ван, компьютерный ученый из Принстонского университета и один из авторов статьи, подчеркивает, что доступность этих инструментов стала серьезной проблемой. Хотя в настоящий момент нет лабораторных доказательств того, что такие ИИ-системы могут стать причиной новой пандемии, ученые все же обеспокоены потенциальными рисками.

Сейчас для создания токсичных веществ или вирусных последовательностей не нужно иметь PhD. Все это стало доступно широкой аудитории.
Менди Ван
доцент кафедры электротехники и вычислительной техники.

Для минимизации этих угроз авторы статьи предлагают внедрить несколько инновационных защитных мер прямо в ИИ-системы. Одной из таких мер является FoldMark, разрабатываемый в лаборатории Ван. Этот инструмент использует концепцию, аналогичную технологии SynthID компании Google DeepMind. Он встраивает уникальный идентификатор в структуру белка без изменения его функции. Если будет обнаружено новое токсичное вещество, этот идентификатор отследит его источник. Такой подход значительно снизит риски и повысит безопасность использования ИИ в биотехнологиях.

Некоторые ИИ-модели, разработанные для создания белков, обучаются на наборах данных, содержащих патогенные, то есть вызывающие болезни, и токсичные белки.
Некоторые ИИ-модели, разработанные для создания белков, обучаются на наборах данных, содержащих патогенные, то есть вызывающие болезни, и токсичные белки.Источник: Unsplash

Кроме того, ученые предложили методику, называемую «антиджейлбрейк» (antijailbreaking), которая помогает ИИ-системам распознавать и отклонять потенциально опасные запросы. Этот подход минимизирует вероятность того, что ИИ будет использован для создания вредоносных биологических материалов. Также рассматривается возможность внедрения автономных агентов, которые будут следить за действиями ИИ и оповещать специалистов о попытках создания опасных веществ. Однако внедрение этих мер не обойдется без сложностей.

Наличие регулирующих органов или какого-то уровня надзора станет важным шагом на пути к обеспечению безопасности.
Альваро Веласкес
менеджер программы по ИИ в Агентстве перспективных исследований в области обороны США (DARPA).

Некоторые эксперты, такие как Джеймс Зоу из Стэнфордского университета, считают, что не стоит пока требовать от ИИ-систем встроенных защитных функций. Регулирование должно быть сосредоточено на тех учреждениях, которые занимаются производством биологических материалов на основе ИИ-дизайнов. Такие производственные мощности должны тщательно проверять происхождение новых молекул и их предполагаемое использование, а также проводить тесты на их безопасность.

Концепция «разучивания» (unlearning) позволяет целенаправленно удалять опасные знания из ИИ, снижая вероятность генерации вредных молекул.
Концепция «разучивания» (unlearning) позволяет целенаправленно удалять опасные знания из ИИ, снижая вероятность генерации вредных молекул.Источник: Unsplash

Несмотря на все трудности, ученые сходятся во мнении, что внимание к безопасности в области ИИ и биотехнологий крайне важно. В особенности это касается области биологической безопасности, которая до сих пор оставалась на периферии обсуждений по сравнению с проблемами, такими как фальшивые новости или манипуляции с изображениями с помощью ИИ.

Важно, что исследователи начали обращать внимание на эту проблему.
Джеймс Зоу
доцент кафедры биомедицинских данных.

Таким образом, внедрение эффективных мер защиты в разработки ИИ может помочь предотвратить злоупотребления в биотехнологической сфере и обеспечить безопасное использование этой мощной технологии в будущем.

Пока одни исследователи ищут способы встроить защиту прямо в алгоритмы ИИ, другие предупреждают о рисках, связанных с тем, как обучаются эти системы. Подмена данных на этапе обучения может превратить нейросеть в источник угроз — подробнее об этом вы можете прочитать в этой статье.