Сможет ли «честный» ИИ остановить злоупотребление нейросетями

ИИ снова оказался в центре скандала: по данным ФБР, злоумышленники могли использовать нейросеть для получения инструкций по изготовлению взрывчатки. В это же время Йошуа Бенджио, один из отцов ИИ, запускает проект по созданию более безопасной модели.
Владимир Барышев
Автор Наука Mail
ИИ
Современные нейросети в свободном доступе полезны, но могут быть использованы во вред при отсутствии ограниченийИсточник: Unsplash

На этой неделе Федеральное бюро расследований США сообщило, что двое подозреваемых во взрыве в калифорнийской клинике репродуктивной медицины, вероятно, использовали систему искусственного интеллекта для получения инструкций по изготовлению бомб. Какой именно ИИ они использовали, не раскрывается. Инцидент вновь обострил вопрос о безопасности ИИ, особенно на фоне стремительной гонки между технологическими компаниями за лидерство в этой сфере.

Полиция
Место преступления в Калифорнии, где произошел взрыв. По данным ФБР, подозреваемые могли воспользоваться ИИ для получения инструкцийИсточник: Unsplash

Почти одновременно с этим, как указано в опубликованном в начале года докладе, канадский профессор Йошуа Бенджио, лауреат премии Тьюринга и один из основоположников глубокого обучения, представил новую некоммерческую инициативу LawZero. Организация работает над созданием так называемого «ИИ-ученого» — безопасной модели, способной оценивать уровень собственной уверенности и объяснять принятые решения.

Эта модель будет сочетать языковые алгоритмы с «моделью мира», то есть набором базовых представлений о физике и логике. Это позволит системе лучше понимать реальность и избегать ошибок, подобных тем, что случаются у текущих моделей — например, при игре в шахматы или генерации изображений рук.

Модель мира
Модель мира в ИИ. Попытка научить машины понимать физику и причинно-следственные связиИсточник: Unsplash

Интересно, что ИИ-ученый задуман не только как полезный помощник, но и как надзорная система. Бенджио предлагает использовать его для контроля над другими, менее безопасными ИИ. Такая практика уже применяется в научной среде, где один ИИ тестирует и оценивает другого.

Однако проект сталкивается с ограничениями. Несмотря на стартовое финансирование в 30 млн долларов, ресурсы LawZero несравнимы с бюджетами крупных технологических гигантов. Кроме того, для работы системы нужны масштабные данные, которые находятся под контролем этих же компаний.

Ученые
Йошуа Бенджио и команда LawZero разрабатывают ИИ нового поколения, ориентированный на безопасность и прозрачностьИсточник: Unsplash

Тем не менее проект может задать новые стандарты безопасности ИИ. Если бы аналогичный подход применялся к социальным сетям на этапе их становления, возможно, интернет-пространство было бы менее токсичным. И если бы ИИ-ученый уже существовал, он, возможно, смог бы предотвратить недавний инцидент, связанный с изготовлением взрывчатки.

Ранее Наука Mail рассказывала о том, какие навыки понадобятся человеку в эпоху ИИ.