
Американская научно-исследовательская компания OpenAI, занимающаяся разработками в области искусственного интеллекта, заявляет, что следующее поколение моделей ИИ может значительно повысить риск получения биологического оружия. В связи с этим создатель ChatGPT усиливает тестирование систем на безопасность, пишет Axios.
О возможной угрозе заявил генеральный директор OpenAI Сэм Альтман. По его словам, дальнейшее развитие ИИ-моделей может привести к тому, что не обладающие достаточными научными знаниями и опытом люди смогут воспроизводить опасные виды оружия. Причем речь идет не о создании новых патогенных организмов, а скорее, о возможности воспроизводства уже известных ученым видов.
Обеспокоенная нецелевым использованием собственных продуктов, компания расширяет меры по тестированию безопасности, направленные на минимизацию риска использования нейросетей для создания биологического оружия.

Основная сложность ограничения ИИ заключается в том, что те же функции моделей способствуют значимым достижениям в медицине и различных областях науки. Это подчеркивает необходимость создания почти безошибочных систем тестирования безопасности.
OpenAI — не первый разработчик, который опасается возможных рисков, связанных с дальнейшим развитием ИИ. Еще в 2023 году более тысячи исследователей подписали открытое письмо, обращенное ко всем лабораториям, занимающимся созданием искусственного интеллекта. В нем они призвали ввести мораторий на обучение нейросетей, более мощных, чем GPT-4. Среди подписантов были соучредитель OpenAI Илон Маск, основатель Mila Иошуа Бенджио, соучредитель Apple Стив Возняк, глава Stability AI Эмад Мострак, пионер исследований в области ИИ Стюарт Рассел, а также основатель Geometric Intelligence Гэри Маркус.
Эксперты по всему миру считают, что настал тот момент, когда обучать более продвинутые ИИ-системы стоит только под строгим надзором и имея уверенность в том, что возникающие при этом риски управляемы.