Космическая лаборатория для робота

Законы робототехники: что это, кто придумал, и в чем суть

В статье разбираем, какие законы робототехники существуют, сколько их на самом деле, и как выдуманные правила используются в современных дискуссиях об этике технологий.
Автор Наука Mail
Главное
В чем суть законов
Сколько законов
Вопросы и ответы
Главное
В чем суть законов
Сколько законов
Вопросы и ответы
Еще

  

Мужчина объясняет детям законы робототехники Азимова
Законы робототехники — это не юридические нормы, а выдуманные принципы этического кодексаИсточник: Freepik

Не только ученые волнуются о том, как обезопасить человека от собственных изобретений. Подобными вопросами задаются и писатели. В 1940-х годах один из них сформулировал три «закона робототехники» — правила, которые должны были регулировать поведение машин в фантастических рассказах. Они не имеют юридической силы и не применяются в инженерии напрямую, но оказали огромное влияние на то, как люди воспринимают роботов и ИИ сегодня. 

Главное о законах робототехники 

  • Законы робототехники — это не юридические нормы, а выдуманные принципы этического кодекса, который мог бы применяться для роботов. 

  • Автор законов — писатель Айзек Азимов. Сформулировать нормы ему помог редактор Джон Кэмпбелл.

  • Чаще всего говорят о трех законах робототехники, потому что они появились в 1940-е годы. Но есть еще один, нулевой. Его Азимов описал намного позднее — в 1986 году. 

  • Суть законов — обязанность робота защищать человека и самого себя.

  • Законы построены иерархично, но могут противоречить друг другу в конкретных сценариях. 

  • Их ценность — культурная: они задали язык разговора об этике машин и продолжают использоваться в дискуссиях о безопасности ИИ.

В чем суть законов робототехники, и кто их придумал

Три закона робототехники звучат так:

1. Робот не может причинять вред человеку или своим бездействием допускать, чтобы человеку был причинен вред.

2. Робот должен подчиняться всем приказам человека, если они не противоречат первому закону.

3. Робот должен защищать свое существование в той мере, пока забота о безопасности не противоречит первому и второму закону. 

Их главное назначение — сформировать иерархию приоритетов, в которой ценность человеческой жизни ставится выше всего остального. Робот не может оправдать свои действия ссылкой на приказ или на собственное выживание, если это причиняет вред человеку. Таким образом, законы задают этический каркас: от безусловного запрета на насилие — к подчинению, а затем к самосохранению.

Робот касается руки человека и не может нарушить законы робототехники
Существуют три закона робототехники, которые задают этический каркас поведению машинИсточник: Unsplash

Законы стали попыткой представить, как можно прописать в машине аналоги человеческой морали. Они звучат просто, но за ними скрывается сложность: понять, что именно является «вредом», как оценить «бездействие», и что значит «подчиняться». Именно эти размытые категории делают правила универсальными в литературе, но неприменимыми напрямую в технике.

Чтобы реально исполнять такие нормы, машине нужна полноценная модель мира, прогноз последствий и эталон человеческих ценностей, которого не существует в реальности. В робототехнике вместо абстрактных понятий используют архитектуры безопасности, нормы ответственности и регуляторные рамки: от профессиональных кодексов и ответственной робототехники до отраслевых рекомендаций и этических уставов. Все это — переосмысление и развитие идеи Азимова, а не ее буквальная реализация. 

Кто придумал законы робототехники

Тезисы приписывают писателю и популяризатору науки Айзеку Азимову. Впервые они как целостная система оформлены в рассказе «Хоровод» (1942). В раннем творчестве уже прослеживались идеи, которые легли в основу законов. «Робби» (1940) и «Логика» (1941) обходились без явных формулировок, в «Лжеце» (1941) звучит лишь первый закон.

На самом деле вопрос о происхождении чуть сложнее: в воспоминаниях Азимова и свидетельствах современников упоминается, что сформулировать три закона робототехники помог друг и редактор писателя Джон Кэмпбелл. Он вычленил правила из текстов литератора — и, по мнению самого Азимова, стал их соавтором. 

Законы не стали инженерным стандартом, потому что требуют невозможного для современной техники: полной модели мира и универсального понимания человеческих ценностей. Но они оказались исключительно влиятельны. Азимов сделал робота не «машиной-убийцей», как во многих ранних фантастических историях, а существом, ограниченным этикой. Этот сдвиг определил тональность разговоров о роботах в культуре и стал точкой отсчета для всех дискуссий об этике искусственного интеллекта.

Сколько законов робототехники существует

Робот читает законы робототехники
Согласно нулевому закону робототехники, робот не может причинить вред человечествуИсточник: Freepik

Законов робототехники всего четыре. Первые три, о которых рассказывали выше, сформулировали 1940-е годы. Четвертый Айзек Азимов вывел намного позже — в 1986 году в романе «Роботы и Империя». Вот как он звучит:

Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.

Из нулевого закона следует, что ради «общего блага» робот может пожертвовать интересами и даже жизнью конкретного человека. Именно здесь и возникает конфликт — первый закон требует безусловно защищать любого индивида, а нулевой допускает, что во имя человечества отдельный человек может пострадать.

В художественных текстах Азимова такие коллизии становились основой сюжетов: роботы пытались просчитать последствия действий на глобальном уровне и приходили к парадоксальным выводам. Иногда соблюдение нулевого закона вело к ограничению свободы людей или даже к принудительным мерам «ради их же пользы». Так Азимов показал, что чем выше уровень обобщения, тем сложнее гарантировать справедливость и этичность решений.

В реальной робототехнике и этике искусственного интеллекта именно этот конфликт — между интересами личности и общества — остается одной из ключевых проблем.

Вопросы и ответы 

В разделе ответили на вопросы о законах робототехники. 

Работают ли законы робототехники?

Законы Азимова красивы как идея, но в реальном мире они упираются в нерешаемые задачи. Чтобы действовать по первому закону, машине нужно заранее предсказывать последствия любого поступка и различать, какой вред больше или меньше. Второй закон требует безусловного послушания, но в жизни нет гарантий, что приказ безопасен. Третий превращает самосохранение в условный приоритет — и потому теряет смысл при любой коллизии. Нулевой, как уже говорилось, вступает в противоречие с первым. В итоге законы не ограничивают, а только порождают парадоксы.

У положений, сформулированных Азимовым, нет юридической силы. Они не влияют на ограничения, которые закладывают или не закладывают в роботов создатели. Однако на восприятие машин человеком законы оказали заметное влияние. Для инженеров они ценны не как инструкция, а как предупреждение: универсальной этической прошивки для роботов быть не может. 

Влияют ли законы робототехники на ИИ? 

Изображение ИИ, на который влияют законы робототехники
Этические нормы для разработчиков ИИ и роботов должны учитывать массу факторовИсточник: Freepik

Да, но не напрямую. Разработчики не закладывают их в код, однако идеи Азимова стали отправной точкой для исследований в области безопасности и «дружественного ИИ». Современные проекты по «конституциям для роботов» или по обучению моделей на правилах поведения прямо наследуют логику Азимова, хотя и используют гораздо более сложные инструменты — от больших языковых моделей до систем машинного обучения с обратной связью от человека. 

Этические нормы для разработчиков ИИ и роботов должны учитывать гораздо больше факторов, чем три закона робототехники: прозрачность принятия решений, вопросы ответственности и доверия, социальные, экономические и экологические последствия. Одной философии здесь мало: чтобы выработать новую робо-этику, требуется междисциплинарный подход. 

Могут ли роботы реально «понимать» этику?

Исследования показывают, что роботы могут лишь имитировать этические решения, опираясь на статистику и заданные правила. Настоящее понимание ценностей у них отсутствует. Поэтому вопросы морали в технологиях по-прежнему остаются в зоне ответственности людей — создателей, владельцев и операторов систем.