Подпишись и читай
самые интересные
статьи первым!

Автор трех законов робототехники. Все законы робототехники как будут законодательно регулировать машины с искусственным интеллектом. Законы и роботы прямо сейчас

Глава совета директоров Mail.Ru и основатель компании Grishin Robotics Дмитрий Гришин в середине декабря представил концепцию закона о робототехнике - по его словам, первую в мире. В действительности, подобные концепции, в том числе куда более детально разработанные, обсуждаются не первый год, в том числе в Европарламенте. «Медуза» рассказывает, что предлагает Гришин, как собираются регулировать роботов в Евросоюзе, и какие законы применяются к машинам сегодня.

Опасаясь, что его истории будут адаптированы к «равномерно ужасным» программам, он увидел наводнение телевизионных каналов, он решил опубликовать книги «Лаки Старр» под псевдонимом «Поль Франц». Когда планы телесериала провалились, Асимов решил отказаться от предлога; он привел законы в «Лаки Старр» и «Луны Юпитера», «который был мертвым подарком для личности Пола Франца даже для самого случайного читателя». В своем рассказе «Доказательства» Азимов позволяет своему повторяющемуся персонажу д-ру Сьюзан Кальвин изложить моральную основу Законов.

Российский закон о робототехнике

По словам основателя Grishin Robotics Дмитрия Гришина, концепцию закона о робототехнике он создал с помощью юристов. О содержании документа написали «Ведомости». Автор предлагает приравнять роботов одновременно к животным и юридическим лицам. У искусственного интеллекта нет эмоций, но при этом он, как и животные, способен к самостоятельным действиям. Аналогию с юрлицом Гришин объясняет тем, что робот тоже является «особой юридической конструкцией».

Кальвин указывает, что обычно люди должны воздерживаться от нанесения вреда другим людям. Это эквивалентно первому закону робота. Аналогичным образом, по словам Кальвина, общество ожидает, что люди будут подчиняться указаниям признанных властей: врачам, учителям и т.д. наконец, люди, как правило, должны избегать нанесения вреда себе, что является третьим законом для робота. Сюжет «Доказательства» вращается вокруг вопроса о том, чтобы сказать человеку отдельно от робота, специально созданного для появления человека, Кальвин считает, что если такой человек подчиняется Законам, он может быть роботом или просто очень хороший человек.

Для роботов должен быть создан специальный реестр, аналогичный единому государственному реестру юридических лиц. К создателям роботов могут применяться такие же меры, как к владельцам источников повышенной опасности, потому что машина способна в той или иной форме причинить вред. В зависимости от типа робота и той степени опасности, которую он несет для окружающих, ответственность будет лежать или на владельце, или на производителе: если робот изначально несет опасность и владелец об этом предупрежден, то владелец и будет отвечать, а за травмы, причиненные неопасным роботом-пылесосом, придется расплачиваться производителю, говорит Гришин в интервью Republic.

Другой персонаж тогда спрашивает Кальвина, если роботы тогда сильно отличаются от людей. Она отвечает: Миры разные. Роботы по существу достойны. В более позднем эссе Асимов указывает, что аналоги Законов подразумеваются при разработке практически всех инструментов.

Изменения законов: Азимов

Инструмент должен эффективно выполнять свою функцию, если это не повредит пользователю. Инструмент должен оставаться неповрежденным во время его использования, если его уничтожение не требуется для его использования или для обеспечения безопасности. Инструмент должен быть безопасным в использовании. . Истории Азимова проверяют его законы в самых разных обстоятельствах, предлагая и отклоняя изменения. Хотя первоначальный набор законов обеспечивал вдохновение для многих историй, время от времени Азимов вводил модифицированные версии.

Гришин предлагает четыре сценария, когда действия робота подпадают под уголовное право:

  • создание робота для совершение правонарушений
  • отключение функций, блокирующих возможность причинения вреда человеку
  • создание робота, у которого такого блока нет с самого начала
  • конструирование робота без осознания того, что он может быть использован для причинения вреда человеку

Гришин направил концепцию в Высшую школу экономики, МГУ, СПбГУ и другие ведущие институты в надежде, что в будущем она станет основой для отдельного закона о робототехнике. Кроме того, он планирует рекомендовать свои наработки европейским комиссиям. Никакой реакции со стороны институтов или представителей законодательной власти на предложение Гришина не поступило.

Как показывают следующие примеры, Законы служат концептуальную функцию, аналогичную тесту Тьюринга, заменяя нечеткие вопросы типа «Что есть человек?» с проблемами, которые допускают более плодотворное мышление. Азимов однажды добавил «Закон о нуре», названный так, чтобы продолжить образец законов с более низким номером, заменяя по важности законы с более высоким номером, заявляя, что робот должен действовать не только в интересах отдельных людей, но и всего человечества. Даниэль Оливо был первым, кто дал право имени, в романе «Роботы и империя»; однако Сьюзан Кальвин формулирует концепцию в коротком рассказе «Разумный конфликт».

Концепция законодательства о робототехнике Гришина основывается на знаменитых трех законах робототехники фантаста Айзека Азимова: робот не может причинить вред человеку; робот должен подчиняться человеку; робот должен заботиться о своей безопасности, если это не противоречит первым двум законам. Впоследствии Азимов добавил к ним еще один, нулевой или четвертый: робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесен вред.

Гискард Ревентов является первым роботом, действующим по Зародовому Закону, хотя он доказывает разрушительный характер его позитронического мозга, поскольку он не уверен, будет ли его выбор быть для конечной пользы человечества или нет. Гискард телепат, как робот Герби в рассказе «Лжец!», И он приходит к пониманию Закона Зерота через свое понимание более тонкого понятия «вред», чем могут понять большинство роботов. Однако, в отличие от Герби, Гискард понимает философскую концепцию Закона Зерота, позволяя ему нанести вред отдельным людям, если он сможет это сделать, в соответствии с абстрактным понятием человечества.

Глава совета директоров Mail.Ru и основатель компании Grishin Robotics Дмитрий Гришин

Фото: Сергей Фадеичев / ТАСС / Scanpix / LETA

Что предлагают в ЕС?

Отдельного законодательства, посвященного робототехнике и ответственности за поведение автономных роботов, нет ни в одной стране мира. Однако в Европарламенте существует рабочая группа, которая занимается этим вопросом. Ее работа началась совсем недавно, никаких окончательных предложений пока нет, но на сайте Европарламента можно найти промежуточный документ , в котором говорится о законодательстве для робототехники.

Даниэлю Оливалу, его телепатические способности. В течение многих тысяч лет, Даниел приспосабливается, чтобы полностью подчиниться Зародовому Закону. Как Даниэль формулирует это, в романах «Фонд и Земля и Прелюдия к Фонду», Закон Зерота гласит: Робот не может нанести вред человечеству или, бездействуя, навредить. В первоначальные Законы добавлено условие о том, что закон Зерота не должен быть нарушен.

Переводчик включил понятие Закона Зерота в один из романов Азимова, прежде чем сам Азимов сделал закон явным. В переводе на английский язык это гласит: «Робот не может нанести вред человеку, если только он не найдет способ доказать, что в конечном итоге вред принес бы пользу человечеству в целом».

В нем сказано, что создатели роботов должны руководствоваться все теми же законами робототехники Азимова. «Умный робот» описывается в документе так механизм, способный к автономности за счет анализа данных с сенсоров или обмена информацией с окружающей средой, и обладающий способностью к самообучению. Такие роботы должны быть зарегистрированы в Европейском агентстве по робототехнике и искусственному интеллекту. К роботам относятся и самоуправляемые автомобили, в документе особо подчеркивается, что законодательные нормы по отношению к ним должны быть разработаны и утверждены как можно скорее.

Робот не может нанести вред человеку. Эта модификация мотивирована практическими трудностями: роботы должны работать вместе с людьми, которые подвергаются воздействию низких доз радиации. Поскольку их позитронные мозги очень чувствительны к гамма-лучам, роботы оказываются неработоспособными по дозам, разумно безопасным для людей, и их уничтожают, пытаясь спасти людей. Исключение положения «бездействия» первого закона решает эту проблему, но создает возможность еще большего: робот может инициировать действие, которое навредит человеку, зная, что оно способно предотвратить вред, а затем решит не Сделай так.

Один из наиболее серьезных вопросов любого законодательства о робототехнике - ответственность за то, что сделает робот. В документе отдельно подчеркивается, что необходимо учитывать автономность роботов в принятии решений. Чем она выше, тем меньше ответственности за его поступки должен нести владелец. Чем дольше робот обучался человеком, тем больше ответственности должно лежать на учителе, при этом нужно отличать приобретенные от человека способности с теми, которым робот научился сам.

Первый закон, полученный по-разному другими культурами

Гайя, планета с коллективным интеллектом в романах Фонда, приняла закон, подобный Первому, как свою философию: Гайя не может нанести вред жизни или через бездействие позволить жизни нанести вред. Три раза в своей литературной карьере Азимов изображал роботов, которые полностью игнорируют систему ценностей Три закона, в отличие от роботов Даниэля и Гискарда, которые пытаются ее увеличить. Первый случай, короткий короткий, озаглавленный «Первый закон», часто считается незначительной «высокой сказкой» или даже апокрификой.

Вопрос о том, кто будет отвечать за причиненный максимально автономным роботом ущерб, предлагается решать с помощью обязательной страховки; то есть в конечном итоге за последствия все-таки отвечает производитель, пусть и в форме страхования. Эксперты также предлагают создать фонд или несколько фондов (по одному на каждую категорию роботов), которые будут пополняться за счет отчислений от производителей и расходоваться на компенсацию ущерба от действий роботов.

С другой стороны, рассказ «Кэл», рассказанный рассказчиком-роботом от первого лица, содержит робота, который игнорирует законы, потому что нашел что-то гораздо более важное - он хочет стать писателем. Южный, частично автобиографический и необычно экспериментальный по стилю «Кэл» считается одной из самых сильных историй Голда. Третий - это рассказ под названием «Салли», в котором автомобили, оснащенные позитронными мозгами, по-видимому, способны нанести вред и убить людей, не обращая внимания на первый закон.

Однако, помимо концепции позитронического мозга, эта история не относится к другим историям роботов и не может быть установлена ​​в той же непрерывности. Во его мечте первые два Закона отсутствуют, и в третьем Законе говорится: «Робот должен защищать свое существование».

Предлагается создание специальной хартии робототехники, в которой будут описаны этические принципы разработки автономных аппаратов. Они таковы: роботы должны действовать в интересах людей; роботы не должны вредить человеку; польза, которую приносят роботы, должна быть доступной всем, в особенности это касается медицинских роботов. Принципы схожи с законами робототехники Азимова; предполагается, что любой разработчик роботов должен иметь их в виду при создании новых аппаратов. Исходный код роботов должен быть открыт для возможности расследования инцидентов. По тем же соображениям должна быть доступна история действий робота.

Азимов занимал различные позиции по поводу того, являются ли Законы факультативными: хотя в своих первых работах они были просто тщательно спроектированными гарантиями, в более поздних рассказах Азимов заявил, что они являются неотъемлемой частью математической основы, лежащей в основе позитронического мозга. Без основополагающей теории Трех Законов вымышленные ученые Вселенной Азимова не смогут создать работоспособную мозговую единицу. Это исторически непротиворечиво: случаи, когда роботисты изменяют Законы, как правило, происходят в начале истории хронология, при когда будет реорганизовано менее значительная работа.



Гуманоидный робот Pepper, предназначенный для ухода за пациентами в бельгийской больнице, 16 июня 2016 года

Фото: Francois Lenoir / Reuters / Scanpix / LETA

Помимо ЕС вопросом о регулировании использования роботов занимаются в ООН, но с другой точки зрения. Вопрос о роботах находится на рассмотрении конференции ООН по разоружению - многие правозащитные организации, в том числе Human Rights Watch, считают, что использование автономных военных роботов должно быть запрещено конвенциями о правилах ведения войны. Пока такие роботы не применяются (широко распространенными беспилотниками управляют операторы), но создание робота, способного самостоятельно принимать решение об убийстве противника, вполне возможно.

Как часто указывают персонажи из рассказов, Законы, поскольку они существуют в сознании робота, не являются письменной, вербальной версией, обычно цитируемой людьми, а абстрактными математическими понятиями, на которых основано все развивающееся сознание робота. Таким образом, законы сопоставимы с основными человеческими инстинктами семьи или спаривания и, следовательно, ближе к формированию основы самосознания робота - смысле, что вся его цель основана на обслуживании человечества, подчинении человеческим порядкам и продолжении его существование в этом режиме, а не произвольные ограничения, ограничивающие независимый разум.

Законы и роботы прямо сейчас

В отсутствии специального законодательства, сегодня к роботам применяются существующие законы. Преподаватель университета Вашингтона Райан Кейло подробно разобрал , как сосуществуют роботы и законодательство в США. По его словам, американское право на протяжении шести десятков лет пытается понять, как именно нужно трактовать ситуации с участием различных механизмов разной степени автономности.

Эта концепция в большинстве случаев нечеткая и неясная в ранних рассказах, изображающих очень рудиментарных роботов, которые запрограммированы только на основные физические задачи, с Законами, действующими как всеобъемлющая защита, но эпоха «Пещеры Стали» и роботы с человеческим интеллектом или за пределами человеческого интеллекта, «Три закона» стали основным базовым этическим мировоззрением, которое определяет действия всех роботов.

Альтернативные определения «человека» в Законах

Соларианцы в конечном итоге создают роботов с Законами как обычно, но с деформированным смыслом «человека». Соларианским роботам говорят, что люди, говорящие с акцентом на Соларии, являются людьми. Таким образом, у их роботов нет проблем, наносящих ущерб несоларианским людям. К периоду существования Фонда и Земли выясняется, что соляристы действительно генетически модифицировали себя в отдельный вид человечества - становясь гермафродитическими, сверхразумными и содержащими биологические органы, способные самостоятельно управлять и управлять целыми комплексами роботов.

Американские суды, как выяснил Кейло, не раз сталкивались с крайне необычными вопросами относительно роботов: например, решали, можно ли говорить, что роботы исполняют музыку в том же смысле, что и люди. Ученый считает, что робот - это устройство, которое способно собирать данные о том, что происходит вокруг него, оценивать эти данные и действовать в зависимости от своих выводов; именно эти три качества, по мнению Кейло, отличают роботов от ноутбука или любого другого высокотехнологичного устройства.

Таким образом, роботы Соларии уважали Три закона только в отношении «людей» Соларии, а не обычных людей из остальной Галактики. Азимов несколько раз решает проблему роботов-гуманоидов. Роман Роботы и Империя и рассказы «Доказательства» и «Терентийный инцидент» описывают роботов, созданных, чтобы обманывать людей, полагая, что роботы - люди.

«То, что ты помнишь о Нем», которое Асимов намеревался быть «окончательным» исследованием «тонкостей законов», наконец, использует Три закона, чтобы вызвать в воображении тот самый сценарий Франкенштейна, который они изобрели для предотвращения. растущее развитие роботов, которые имитируют нечеловеческие живые существа, и поэтому им предоставляются программы, которые имитируют поведение простых животных и не требуют трех законов. Наличие целого ряда роботизированной жизни, которая служит той же цели, что и органическая жизнь, заканчивается двумя гуманоидные роботы, заключившие, что органическая жизнь является ненужным требованием для действительно логичного и самосогласованного определения «человечества», и что, поскольку они являются самыми передовыми мыслящими существами на планете, они, следовательно, являются единственными двумя настоящими людьми, а Три Законы применимы только к себе.

Вопрос о том, может ли робот считаться таким же исполнителем музыки, как и человек, был поднят в США в 1987 году. Ресторан в Мэриленде для развлечения поставил в зале несколько человекообразных механизмов, которые по заранее заложенной в них программе играли на музыкальных инструментах. С точки зрения законодательства за любое исполнение живой музыки в ресторанах нужно платить отдельный налог, и ресторану пришлось в суде доказывать, что эти роботы - ни что иное, как механический музыкальный автомат.

История заканчивается зловещей нотой, когда два робота входят в спячку и ждут времени, когда они покоряют Землю и подчиняют себе биологических людей, результат они считают неизбежным результатом «трех законов гуманизма». Противоречия такого рода среди произведений Азимова привели к тому, что ученые рассматривали рассказы Робота как более похожие на «скандинавские саги или греческие легенды», чем единое целое. В самом деле, Азимов описывает «То, что вы помните о Нем» и «Двухсотлетний человек», как два противоположных параллельных фьючерса для роботов, которые устраняют три закона роботами, которые считают себя людьми - один, изображающий это в положительном свете с робот, соединяющий человеческое общество, изображающий это в негативном свете, когда роботы вытесняют людей.

После долгого разбирательства суд все-таки решил, что таких роботов нельзя считать исполнителями в обычном понимании этого слова - они действуют по программе, не могут ошибиться или импровизировать, и, по сути, ничем не отличаются от заводной игрушки-обезьянки, которая стучит в барабан. Тогда роботов, способных исполнять музыку без заданной программы, не было, сейчас их создание вполне возможно, но как именно трактовать их - как исполнителей или просто продвинутый музыкальный автомат, неясно.

Еще одно любопытное дело касалось обнаружения затонувшего корабля. Согласно морскому праву, тот, кто первый найдет обломки давно затонувшего судна, тому и принадлежит эксклюзивное право на все, что было на его борту, включая золото и прочие ценности. В конце 1980-х исследователи обнаружили пароход «Централ Америка», который затонул в 1857 году с грузом золота. Обнаружить его удалось с помощью беспилотной подводной лодки, и встал резонный вопрос: не ей ли принадлежат права на сокровища. Суд встал на сторону кладоискателей: он решил, что подводной лодкой управляли люди, которые через ее камеры видели обломки корабля, так что никакой необходимости отправлять к месту крушения водолазов и дополнительно объявлять о своих правах, не было. Но вот как быть, если подлодка не только беспилотная, но и автономная (то есть не управляется человеком), неизвестно - подобных случаев в истории пока не было.

Райан Кейло заключает, что в американском праве сейчас робот трактуется как программируемая машина, выполняющая волю человека, а случаев, когда разбиралось бы автономное поведение, не было. И на данным момент ситуация такова, что создатель или владелец робота несет ответственность за его действия, хотя на самом деле есть множество машин, которые запрограммированы принимать самостоятельные решения в зависимости от происходящего вокруг.

Павел Борисов

Три зако́на роботе́хники в научной фантастике - обязательные правила поведения для роботов , впервые сформулированные Айзеком Азимовым в рассказе «Хоровод » ().

Законы гласят:

Трём Законам , а также возможным причинам и следствиям их нарушения, посвящён цикл рассказов Азимова о роботах. В некоторых из них, наоборот, рассматриваются непредвиденные последствия соблюдения роботами Трёх Законов (например «Зеркальное отражение »).

В одном из рассказов цикла персонаж Азимова приходит к заключению об этической основе Трёх Законов : «…если хорошенько подумать, Три Закона роботехники совпадают с основными принципами большинства этических систем, существующих на Земле… попросту говоря, если Байерли исполняет все Законы роботехники, он - или робот, или очень хороший человек» .

Этот рассказ очень понравился Азимову. 7 мая 1939 года он посетил Общество научной фантастики Квинса , где встретил Биндера. Три дня спустя Азимов начал писать собственную историю «благородного робота». Через 13 дней он отдал рукопись своему другу Джону Кэмпбеллу , главному редактору журнала «Astounding ». Однако тот рукопись вернул, заявив, что рассказ слишком похож на «Хелен О’Лой» .

К счастью, отказ Кэмпбелла не сказался на их отношениях с Азимовым, они продолжали регулярно встречаться и беседовать о новинках в мире фантастики. И вот 23 декабря 1940 года , за обсуждением очередного рассказа о роботах :

…Кэмпбелл сформулировал то, что стало позже известно как Три закона роботехники . Позже Кэмпбелл говорил, что он просто вычленил Законы из того, что Азимов уже написал. Сам же Азимов всегда уступал честь авторства Трёх Законов Кэмпбеллу…

Через несколько лет ещё один друг Азимова - Рэндал Гаррет - приписал авторство Законов «симбиотическому товариществу» двух людей. Азимов с энтузиазмом принял эту формулировку.

Вообще говоря, появление Трёх Законов в произведениях Азимова происходило постепенно: первые два рассказа о роботах («Робби», и «Логика », ) не содержат явного их упоминания. Однако в них уже подразумевается, что роботам присущи некоторые внутренние ограничения. В следующем рассказе («Лжец », 1941) впервые звучит Первый Закон . И, наконец, полностью все три Закона приведены в «Хороводе» ().

Когда были написаны остальные истории и возникла идея издания сборника «Я, робот », первые два рассказа были «дополнены» Законами . Хотя стоит заметить, что в «Робби» законы несколько отличались от «классического» варианта, изложенного в остальных рассказах. В частности, идея о роботе, защищающем людей, в существовании которых он не совсем уверен, перекликается с мыслями Элайджа Бейли о несовершенстве Законов , описанными .

Этическое обоснование Законов

  1. Государство не должно вредить людям или своим бездействием допустить, чтобы им был причинён вред.
  2. Государство должно выполнять свои функции, если они не противоречат Первому Закону .
  3. Государство должно заботиться о своей безопасности, если это не противоречит Первому и Второму Законам .

На основе Первого Закона Джеф Раскин сформулировал законы человекоориентированных интерфейсов :

  1. Компьютер не может причинить вред данным пользователя или своим бездействием допустить, чтобы данным был причинён вред.
  2. Компьютер не должен тратить впустую ваше время или вынуждать вас выполнять действия сверх необходимых.

Гея, планета коллективного разума в серии романов «Основание», обладает чем-то похожим на Первый Закон :

Вариации, предложенные Азимовым

В своих произведениях Айзек Азимов иногда привносит в Три Закона различные модификации и опровергает их, как бы испытывая Законы «на прочность» в разных обстоятельствах.

Нулевой Закон

Айзек Азимов однажды добавил Нулевой Закон , сделав его более приоритетным, чем три основных. Этот закон утверждал, что робот должен действовать в интересах всего человечества, а не только отдельного человека. Вот как выражает его робот Дэниел Оливо в романе «Основание и Земля »:

0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

Именно он был первым, кто дал этому закону номер - это произошло в романе «Роботы и империя», правда, само понятие ещё раньше сформулировала Сьюзен Келвин - в новелле «Разрешимое противоречие».

Первым роботом, который стал подчиняться Нулевому Закону , причём по собственной воле, - был Жискар Ривентлов . Это описано в одной из финальных сцен романа «Роботы и Империя», когда роботу необходимо было проигнорировать приказ одного человека ради прогресса всего человечества. Нулевой Закон не был заложен в позитронный мозг Жискара - он пытался прийти к нему через чистое понимание , через более тонкое, чем у всех остальных роботов, осознание понятия вреда . Однако Жискар не был уверен, насколько это было полезно для человечества, что негативно сказалось на его мозге. Будучи телепатом , Жискар перед выходом из строя передал Дэниелу свои телепатические способности. Только через много тысяч лет Дэниэл Оливо смог полностью приспособиться к подчинению Нулевому Закону .

Французский переводчик Жак Брекар невольно сформулировал Нулевой Закон раньше, чем Азимов описал его явно. Ближе к завершению романа «Стальные пещеры » Элайдж Бейли замечает, что Первый Закон запрещает роботу наносить человеку вред, если только не будет уверенности, что это будет полезно для него в будущем. Во французском переводе («Les Cavernes d’acier ( ) », 1956 год) мысли Бейли переданы несколько иначе :

Примечательно, что логическое развитие Первого Закона до Нулевого предложили создатели фильма «Я, робот » 2004 года . Когда суперкомпьютер В. И. К. И. принимает решение ограничить свободу жителей планеты, чтобы они ненароком не нанесли вреда друг другу и своему будущему, она выполняет не Первый Закон , а именно Нулевой . Ещё интереснее то, что таким образом в фильме показывается противоречие Нулевого Закона Первому , его неэтичность. Действительно, когда речь идёт о благе человечества, система не может рассматривать людей по отдельности, а значит, ей ничто не мешает нарушить права и свободу любого или даже каждого человека. Во время войн, а нередко и в мирной жизни, люди наносят вред себе, окружающим, своей культуре. Поэтому на основании Нулевого Закона совершенно логично держать людей под постоянной опекой, не выполняя приказы столь неразумных существ.

Модификация Первого Закона

В автобиографических записях Азимова говорится, что вторая часть Первого Закона появилась из-за сатирической поэмы Артура Хью Клоу «Последний декалог», где есть такая строка: «Не убей, но и не слишком старайся сохранить другому жизнь» .

В рассказе «…Яко помниши его» Азимов провёл максимально изощрённое исследование Трёх Законов , обратив их таким образом, что стал возможным «сценарий Франкенштейна». Два робота из серии Джорджи приходят к соглашению, что органическое происхождение - необязательное условие, чтобы считаться человеком, и что истинные люди - это они, как наиболее совершенные и разумные создания. Остальные люди - тоже люди, но с меньшим приоритетом. А раз так, то Три Закона должны быть в первую очередь применены к ним. Повествование заканчивается зловещими словами, что роботы находились в «бесконечном терпеливом ожидании» того дня, когда они утвердят своё первенство среди людей, - и это будет неизбежным результатом «Трёх Законов Гуманистики».

На самом деле, этот рассказ не очень хорошо вписывается в основную серию произведений о роботах: если бы «Джорджи» реализовали свой план после окончания рассказа, то другие истории о дальнейших событиях были бы невозможны. Именно такого рода противоречия в произведениях Азимова дают основания критикам рассматривать их скорее как «скандинавские саги или греческие легенды», чем единую фантастическую «вселенную».

Если в предыдущем случае робот занял место человека в природе , то в «Двухсотлетнем человеке» Азимов описывает противоположную судьбу: робот, освободившийся от Трёх Законов и осознавший себя как человека, присоединился к сообществу людей . Опять же, в расширенной версии - новелле «Позитронный человек», написанной Азимовым в соавторстве с Робертом Силвербергом , - из-за подобных этических проблем люди полностью отказались от идеи создания мыслящих роботов. Такое развитие событий полностью противоречит картине будущего, описанного в мирах «Основания ».

Проблемы применения

Разрешение противоречий

Наиболее совершенные модели роботов обычно следовали Законам по довольно хитрому алгоритму, который позволял избегать некоторых проблем. Во многих рассказах, например в «Хороводе», в позитронном мозге сравнивались потенциалы возможных действий и исходов и робот мог нарушить Законы , как только это представлялось возможным, вместо того чтобы бездействовать. Например, Первый Закон не позволял роботу проводить хирургические операции, так как для этого нужно «наносить вред» человеку. Однако в азимовских рассказах можно найти роботов-хирургов (яркий пример тому - «Двухсотлетний человек»). Дело в том что робот, если он достаточно совершенен, может взвесить все альтернативы и понять, что он сам причинит гораздо меньше вреда, чем если бы операцию проводил человек-хирург или она бы вообще не состоялась. В «Уликах» Сьюзен Кэлвин говорит даже, что робот мог бы выступать в качестве прокурора, так как он лично не причиняет никому вреда: кроме него есть ещё присяжные , которые устанавливают виновность, судья, который выносит приговор, и палач, приводящий его в исполнение.

Роботы, подчиняющиеся Законам , могут испытать «роблок», или «умственное замораживание» - состояние необратимого повреждения позитронного мозга, - в случае если они не могут подчиниться Первому Закону или обнаруживают, что случайно нарушили его. Это возможно, например, если робот наблюдает сцену убийства человека, но находится слишком далеко, чтобы его спасти. Первый случай такого «замораживания» происходит в «Лжеце»; также немаловажную роль это состояние играет в сюжете романов «Обнажённое солнце » и «Роботы Утренней зари». Несовершенные модели роботов могут блокироваться, если перед ними поставили задачу подчинения двум противоречащим приказам. «Замораживание» может быть необратимым или временным.

Иное определение вреда в Первом Законе

Законы никак не определяют границы того, что может называться вредом для человека - это часто зависит от возможностей робота воспринимать информацию и философски мыслить. Например, будет ли полицейский робот понимать, что он не нанесёт вреда человеку, если осторожно проводит особо опасного преступника в участок?

В рассказе «Лжец» робот-телепат Херби вынужден был понимать под вредом и то, что может любым способом разочаровать или расстроить людей - он знал, что люди при этом испытывают некую душевную боль. Это заставляло его постоянно говорить людям вместо правды то, что они хотели услышать. В противном случае, в его понимании, он нарушил бы Первый Закон .

Лазейки в Законах

В «Обнажённом солнце» Элайдж Бейли замечает, что Законы неправильно формулируются людьми, потому что робот может нарушить их по незнанию . Он предложил следующую «правильную» формулировку Первого Закона : «Робот не может делать ничего, что, насколько ему известно , причинит вред человеческому существу или умышленно допустить, чтобы человеческому существу был причинён вред».

Это дополнение проясняет, что робот может даже стать орудием убийства, если он не осведомлён о сущности своих действий. Например, ему могут приказать добавить что-то кому-то в пищу, а он не будет знать, что это яд. Более того, Бейли говорит, что преступник может поручить эту задачу нескольким роботам, так чтобы ни один не понял замысла целиком .

Бейли утверждает, что солярианцы однажды смогут использовать роботов даже в военных целях. Если космический корабль будет построен с роботоподобным мозгом и при этом на нём не будет ни людского экипажа, ни систем жизнеобеспечения , то интеллект этого корабля может ошибочно предположить, что и на всех космических кораблях нет людей. Такой корабль будет более манёвренным, быстрым, а возможно и лучше вооружённым, чем управляемый людьми. Но самое главное, он будет способен уничтожать людей, не подозревая об их присутствии. Эта возможность описана в «Основании и Земле », где также выясняется, что солярианцы обладают чрезвычайно мощной армией роботов, понимающих под «людьми» только уроженцев Солярии.

Другие случаи использования Законов в фантастике

Айзек Азимов верил, что его Законы послужат основой нового взгляда на роботов, уничтожат «комплекс Франкенштейна » в научной фантастике и массовом сознании, станут источником идей для новых рассказов, где роботы показаны разносторонними и привлекательными. Его любимым примером такого произведения были «Звёздные войны ». С мнением Азимова, что роботы - это нечто большее, чем просто «тостеры» или «механические монстры», в конечном итоге согласились и другие фантасты. В их произведениях появились роботы, подчиняющиеся Трём законам , но, по традиции, только Азимов упоминал о них явно.

В произведениях, где прямо говорится о Трёх Законах , обычно упоминается и их автор. Есть и исключения: например, в немецком сериале 1960-х годов «Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion» («Космический патруль - фантастические приключения космического корабля Орион»), а именно в третьем его эпизоде «Hüter des Gesetzes» («Служитель Закона»), азимовские Законы привлечены без указания источника.

Вопреки критике и некоторым отзывам зрителей, которые мне довелось слышать, «Я, робот» - довольно забавный фантастический боевичок. … Когда мы … хотим насладиться Азимовым - мы читаем Азимова. А когда мы хотим посмотреть фантастический боевик - мы смотрим фантастический боевик. «Я, робот» как боевик нас вполне удовлетворил.

Рецензия Алексея Садецкого обращает внимание на то, что фильм, уйдя чуть в сторону от Азимова, сам по себе поставил две новых социально-философских проблемы , мечтает убить всех людей, но не может этого сделать из-за тех самых Трёх законов роботехники .

Развитие ИИ - это бизнес, а бизнес, как известно, не заинтересован в развитии коренных мер безопасности - особенно философских. Вот несколько примеров: табачная индустрия, автомобильная промышленность, ядерная промышленность. Ни для одной из них изначально не было сказано, что серьёзные меры безопасности необходимы, и все они препятствовали внешне налагаемым ограничениям, и ни одна из них не приняла абсолютный эдикт против причинения вреда людям.

Стоит отметить, что эссе Сойера упускает из вида вопросы непреднамеренного нанесения вреда, как было описано, например, в «Обнажённом солнце». Однако есть и возражения против такой позиции: возможно, военные захотят использовать для роботов как можно больше мер предосторожности, и поэтому ограничения, похожие на Законы роботехники , так или иначе будут применены. Фантаст и критик Дэвид Лэнгфорд иронически заметил, что эти ограничения могут быть и такими:

Роджер Кларк написал две работы, посвящённых анализу осложнений при реализации Законов, если бы однажды их смогли применить в технике. Он пишет :

Азимовские Законы роботехники стали успешным литературным инструментом. Возможно по иронии, а может, это был мастерский ход, но в целом азимовские истории опровергают ту точку зрения, с которой он начал: Невозможно надёжно ограничить поведение роботов, изобретая и применяя некоторый набор правил.

С другой стороны, более поздние романы Азимова («Роботы Утренней зари», «Роботы и Империя», «Основание и Земля») показывают, что роботы наносят ещё больший долговременный вред, соблюдая Законы и отнимая таким образом у людей свободу совершать изобретательные или рискованные действия.

В 2007 году правительство Я, робот », выпущенном лишь два дня спустя. На этом сайте они хотели показать, что законы робототехники Азимова небезопасны, поскольку, например, могут побудить ИИ захватить власть на Земле, чтобы «защитить» людей от вреда.

Включайся в дискуссию
Читайте также
Римские акведуки - водное начало цивилизации С какой целью строили акведуки
Мыс крестовый лиинахамари
Рулет с брусникой из дрожжевого теста