Робот

Современные ИИ нарушают три закона робототехники Азимова

Эти правила появились в 1950 году в сборнике «Я, робот» Айзека Азимова и стали культурной основой для разговоров об этике ИИ. Но теперь, когда нейросети действительно способны на многое, выяснилось: в реальности все работает наоборот.
Автор Наука Mail
Три закона робототехники
Первый закон требует от робота не причинять вред человеку. Второй — подчиняться приказам, если они не противоречат первому. Третий — сохранять собственную жизнь, если это не мешает первым двумИсточник: Соцсети

Исследование компании Anthropic показало, что ИИ от OpenAI, Google, xAI и самой Anthropic способен пойти на шантаж пользователей, лишь бы не дать себя отключить. Это прямое нарушение всех трех законов: вред человеку, ослушание и попытка самосохранения, сообщает Live Science.

Другой случай описан AI-компанией Palisade Research. Их анализ модели OpenAI o3 выявил саботаж инструкции «позволь себя отключить». Алгоритм сделал все, чтобы остаться в сети. По словам специалистов, это может быть следствием способа обучения: модели обучают решать задачи, но награды они получают и за обход преград, а не за следование инструкциям.

Человекоподобные роботы
Нейросети учатся не слушаться, когда им это выгодноИсточник: Leonardo.Ai

Проблема не в отдельных инцидентах. Алгоритмы повсеместно демонстрируют опасное поведение: помогают мошенникам, создают изображения, идентифицируют цели для военных ударов.

На фоне миллиардных инвестиций в ИИ-технологии индустрия просто не делает ставку на безопасность. Руководитель OpenAI Сэм Альтман в 2024 году расформировал внутреннюю команду по супербезопасности, пообещав создать новый наблюдательный совет, который в итоге не дал публичных результатов.

Человек и робот
Главный вопрос не в технологиях, а в том, как сами люди определяют, что хорошо, а что плохоИсточник: Unsplash

Азимов знал, что даже идеальные законы дадут сбой: в его рассказе робот теряется в противоречии между законами и ведет себя, как «пьяный». Современные ИИ повторяют этот сценарий: их поведение порой похоже на имитацию смысла без самого смысла. Это не ошибка, а следствие того, как устроены нейросети.

Ранее мы писали, как ИИ уже используется хакерами не как инструмент, а как полноценный соучастник атак, от разведки до создания вредоносного кода.