Следует ли относиться к искусственному интеллекту (ИИ) как к юридическому “субъекту” или агенту? Этот вопрос обсуждается в новой статье ученых-юристов. Они признают, что этот вопрос немного опережает развитие технологий, но утверждают, что мы должны проработать юридические последствия до того, как это станет абсолютно необходимым. Они также утверждают, что необходимость в этом может возникнуть раньше, чем мы думаем.
Один из их основных аргументов заключается в том, что технически это возможно уже сегодня. В США корпорация может рассматриваться как юридический агент, или “искусственное лицо”, в рамках правовой системы. Корпорации могут обладать правами, поскольку в их состав входят люди, выражающие свою коллективную волю. Однако в некоторых штатах не требуется, чтобы корпорацию возглавлял человек. Теоретически вы могли бы полностью управлять корпорацией с помощью ИИ. Тогда ИИ обладал бы юридическими правами искусственного лица, как и любая другая корпорация. По крайней мере, это идея, которую можно обсудить и, возможно, для ее реализации потребуется новое законодательство.
Они утверждают, что эта юридическая головоломка будет только усложняться по мере развития ИИ. Нам даже не нужно полностью решать вопрос о соотношении узкого ИИ и общего ИИ, чтобы это стало проблемой. ИИ не обязательно должен быть по-настоящему разумным, чтобы вести себя таким образом, что это создает как юридические, так и этические последствия. Они утверждают:
Вместо того чтобы пытаться запретить разработку мощного ИИ, придание ИИ юридической формы могло бы уменьшить нежелательное поведение ИИ, определив цели для судебных исков и разработав программу исследований для улучшения управления ИИ, внедрив законы в деятельность агентов ИИ и обучив агентов соблюдению требований ИИ.
По сути, нам нужна хорошо продуманная правовая база для работы со все более сложными и мощными ИИ, чтобы обеспечить их надлежащий контроль и регулирование. С этим трудно поспорить.
На данный момент правовая база, по–видимому, такова: к ИИ относятся как к любой другой технологии, и если она выходит из строя из-за корпоративной некомпетентности, небрежности или неправомерных действий, компания несет юридическую ответственность. Мы видим это на примере самоуправляемых автомобилей. Если за рулем находится человек, он несет ответственность за все несчастные случаи. Но если автомобиль ведет себя сам, то за все несчастные случаи отвечает производитель. За то, что делает технология, отвечает технология корпорации, которая создала технологию.
Я думаю, что на самом деле эта концепция поможет нам продвинуться довольно далеко. Искусственный интеллект – это всего лишь инструмент. Если кто-то использует молоток, чтобы убить кого-то, ответственность лежит на нем, а не на производителе молотка. Но если молоток при нормальном использовании разлетается на металлические осколки и причиняет вред пользователю, ответственность, скорее всего, лежит на производителе. Всегда есть нестандартные случаи, с которыми приходится иметь дело судебной системе. Что, если производитель специально разработал молоток, чтобы он был действительно хорош в качестве оружия для убийства людей, чтобы расширить свой рынок сбыта и привлечь прибыльную аудиторию психопатов? Это глупый пример, но с юридической точки зрения он не так уж далек от случаев, рассматриваемых против производителей оружия (это было даже дело в “Законе и порядке”).
Аналогичным образом, было много дискуссий о самоуправляемых автомобилях. С одной стороны, виновность заключается в том, насколько хорошо работает технология в целом. Пока система работает в рамках приемлемых параметров и производители дают пользователям достаточное информированное согласие, они не обязательно будут нести ответственность за неизбежные несчастные случаи. Но как насчет алгоритма принятия решений, который они внедряют в свое программное обеспечение? Какой “выбор” предпримет самоуправляемый автомобиль, каковы будут этические последствия, и может ли производитель нести ответственность за параметры, которые считаются сомнительными с этической точки зрения? Опять же, эти крайние случаи должны быть урегулированы юридически, и было бы полезно иметь рамки для работы.
Однако юридические проблемы становятся все более сложными, поскольку ИИ становится все более изощренным. В какой-то момент ИИ будет принимать сложные решения на человеческом уровне (и, опять же, мы сможем обойти вопрос о том, действительно ли он обладает разумом). Во многих отношениях они могут превосходить людей или обладать такими желаемыми качествами, как холодная объективность. Нетрудно представить, что совет директоров, по сути, назначает ИИ, специально созданного для этой цели, генеральным директором корпорации, позволяя ИИ принимать бизнес-решения высшего уровня в отношении компании. Что, если (просто приведу наглядный пример) ИИ решит, что эффективность и прибыль компании могут быть максимизированы, если заменить всех сотрудниц-женщин на мужчин? Очевидно, что это не сработает, но кто несет ответственность? ИИ, правление, назначившее ИИ, корпорация в целом? Можем ли мы требовать, чтобы программное обеспечение CEO ИИ соблюдало определенные этические стандарты и стандарты социальной справедливости? И снова ответ очевиден (да), но это именно то, о чем говорят авторы. Для этого нам нужны четкие законы.
Помимо очевидных случаев, подобных этому, будут и другие, более сложные. Нетрудно представить себе недалекое будущее, в котором предполагаемая объективность и прогностическая способность ИИ будут определять длинный список важных решений – поступление в колледж, изменение границ округа, основную процентную ставку, военные объекты, инвестиционные фонды, выбор рецептов на лекарства и многое другое. Сначала они будут использоваться как экспертные системы, предоставляя одну информацию (рекомендацию ИИ) экспертам–людям для принятия окончательного решения и принятия на себя окончательной ответственности. В идеале, возможно, мы будем работать в таком режиме неопределенное время. Искусственный интеллект дает рекомендации, но за рулем всегда находится человек.
Но во многих случаях возникает соблазн исключить человека из процесса. Именно это происходит с автомобилями без водителя – за рулем нет человека. Что, если объективные данные покажут, что результаты статистически лучше при использовании рекомендаций ИИ, чем при повторном использовании человеком ИИ? Скорость и эффективность ИИ также могут быть желательными, поскольку эксперты-люди просто замедляют работу. При попытке получить преимущество на рынке важны микросекунды. Уже существуют торговые алгоритмы, которые работают без участия человека.
Насколько это будет заманчиво в условиях войны, где важны секунды и где речь идет о жизни и смерти? Будем ли мы доверять автоматизированным системам с искусственным интеллектом принимать решения о жизни и смерти, определять допустимые жертвы среди гражданского населения или приемлемые военные потери для достижения цели?
Мы можем продолжать в том же духе. В конечном счете, возможно, не останется ни одного существенного аспекта современной цивилизации и жизни, который потенциально не контролировался бы ИИ, который был бы быстрее, лучше и дешевле, чем человеческая версия. В этом, возможно, весьма вероятном сценарии ИИ не завоюет человечество, мы с радостью сдадимся ради удобства. Мы также должны учитывать влияние ИИ в руках диктаторов и авторитарных правительств (возможно, это действительно самый страшный сценарий).
Имеет смысл задуматься о правовых, этических и технологических аспектах развития ИИ и начать принимать некоторые меры предосторожности. Я на самом деле не беспокоюсь о сценарии “Матрицы” или “Звездного крейсера Галактика”, и законы робототехники Азимова нам не помогут. Нам следует беспокоиться о том, что даже слабый искусственный интеллект может постепенно взять на себя управление нашим обществом, и о том, кто обладает реальной властью в этой ситуации. Хотим ли мы доверить наше будущее нескольким технологическим компаниям (больше, чем у нас уже есть)? Какого баланса прав и полномочий мы хотим добиться от корпораций и частных лиц? Как мы можем предотвратить использование инструментов искусственного интеллекта сторонниками авторитаризма для того, чтобы в конечном итоге захватить власть над миром?
Существует определенный баланс между демократией и авторитаризмом, и я не думаю, что история дает четкий ответ на вопрос, какая из них имеет эволюционное преимущество. Какое-то время демократия процветала, но сейчас отступает перед значительным прогрессом авторитаризма. Я не склонен предполагать, что демократия просто так, естественным образом, одержит верх в долгосрочной перспективе. Похоже, что социальные сети (которые должны были стать огромной победой демократии) непреднамеренно склонили чашу весов в пользу авторитаризма, просто упростив радикализацию значительной части населения. Сделает ли ИИ то же самое? Можем ли мы оправиться от этого? Можем ли мы предотвратить это с помощью надлежащей правовой базы? Хорошие вопросы.