Sunday Science: Айзек Азимов и законы Робототехники

Если вы хоть раз брали в руки книги Айзека Азимова, то скорее всего знаете о том, что такое законы робототехники по Азимову. Это простые, но в то же время невероятно эффективные законы заложенные в позитронных мозгах робота, дабы тот подчинялся человеку и действовал только во благо. Однако, даже в на первый взгляд безукоризненной системе законов, обязательно могут быть исключения – именно на них и построены затягивающие произведения Азимова. 

Вот эти законы, так же вы можете послушать как сам Айзек говорит о них на видео ниже.

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Но к чему это я... Поводом к этому материалу стало именно это видео, которое вы только что посмотрели, и, которое, скорее всего так же вызвало у вас желание перечитать пару-тройку детективов Азимова. Однако, в рамках Sunday Science, давайте немного погипотетизируем. 

В отношении первого закона – что случится в ситуации, когда у робота будет два выбора, каждый из которых причинит вред человеку? К примеру – возьмем старую этическую проблему так же используемую для определения отношения человека: есть поезд, у него отказали тормоза, он катится по рельсам в сторону "стрелки". На одной ветке группа людей, на другой – один человек. Перед вами стоит выбор – вы можете перевести стрелку и задавить одного человека, или не делать ничего, и чтобы поезд раздавил группу людей. Что бы в такой ситуации сделал робот согласно Трем Законам? Как бы он не поступил, обязательно будут жертвы, исчисляясь только количеством. Если внести поправку в закон гласящий, что "в ситуации где выбор или бездействие причинят вред человеку, то необходимо причинить как можно меньший вред". И это рациональный утилитарный подход, но является ли он справедливым? Насколько точным окажется прогноз относительно того – чья жизнь ценнее? Что если тот единственный человек – президент, а группа – преступники осужденные пожизненно? Как в этой ситуации должен поступить робот. Самое удивительное, что этот же вопрос относится и к человеку. 

Касательно третьего вопроса: почему мы должны заставлять робота продолжать свое существование? Если робот каким-либо образом создаст потенциал для поднятия вопроса о собственном существовании и выбирает прекращение работы, то не будет ли подчинение его продолжение работы жестоким по отношению к роботу? Или этот закон должен автоматически вызывать желание жить так долго как это возможно? Но если допустить то, что робот как в истории про двухсотлетнего человека будет способен ощущать боль, то правомерен ли третий закон? Сюда же можно отнести и второй закон, так как при появлении базового сознания, фактически для человека, робот окажется рабом.  

Таким образом можно задать основной вопрос – ограничивают ли три закона мыслительные способности робота? Но самое главное – имеют ли они смысл?

И чтобы покрыть все сразу – да, они имеют смысл. Но это обман. Такой же обман как и торт? Помните – Cake is a lie. Три закона робототехники на первый взгляд являются логичными и рациональными схемами для ограничений действий робота, однако с самого начала они задуманы таким образом, чтобы иметь пространство для ошибок и несоответствий. 

Можно сказать, что романы про роботов были задуманы как трюк, который разыгрывается над читателем: необходимо заставить человека поверить, что Три Закона являются корректными и полноценными, иначе просто не получится того момента озарения, когда ты понимаешь, в чем, собственно, было дело. Азимов создал свои "правила" настолько искусно, что даже сегодня многие полагают, что Три Закона правильны. Даже при том, что все существование Трех Законов было основано на том факте, что они не работают!

Давайте поаплодируем мистеру Айзеку.  

Больше статей на Shazoo
Тэги:
Читать комментарии на сайте