Деликт, вред и роботы: кто в ответе, если ChatGPT дал плохой совет
Анализируем правовую природу действий «искусственного интеллекта», разбираем отдельные правовые последствия и пробуем немного успокоить отдельных коллег.
Предыдущие 15 лет можно назвать бронзовым веком интеллектуальных компьютерных программ: с каждым днем проникновение нейросетей в нашу жизнь становится все глубже, а их возможности — мощнее и шире.
Сегодня миллионы нейросетей встроены в инфраструктуру целых государств, отраслей и бизнесов, ИИ запускает четвертую промышленную революцию, его потенциальная эффективность и прирост производительности беспрецедентны.
С развитием «автопилота» Tesla, предиктивной аналитики, распознавания лиц, сервисов вроде ChatGPT и так называемого искусственного интеллекта в целом, перед обществом встает вполне очевидный, но довольно неоднозначный вопрос: если робот все таки навредит человеку, кто понесет ответственность за этот вред?
Некоторые юристы довольно эмоционально высказываются о том, что искусственный интеллект — не только причинит зло, но и останется безнаказанным. Мы, в свою очередь, предлагаем альтернативный (правовой) взгляд на проблему.
Что такое «искусственный интеллект» и может ли он действовать интеллектуально?
Поскольку закона, определяющего искусственный интеллект пока не существует, для целей статьи мы возьмем базовое определение у автора книги The Quest for Artificial Intelligence: A History of Ideas and Achievements Нильса Джон Нильссона:
Как следует из определения, основной критерий разума, которым может быть наделен ИИ — способность действовать надлежащим, т. е. предусмотренным человеком-«создателем» образом. ИИ на своем текущем этапе развития не только может выполнять некоторые задачи лучше человека, но и обладает тем, что можно назвать «творческим потенциалом»: ИИ успешно отвечает на вопросы, рисует изображения, создает музыку и даже пишет небольшую часть этого текста (в соавторстве с человеком).
При этом, ИИ делает это не по своей воле: задачу ему, в общем случае, дает человек. У ИИ нет того, что мы считаем сознанием или страстью: робот уже способен написать симфонию, но пока не может сделать этого по своей воле, без желания человека. Исходя из этого, мы можем сделать вывод о том, что ИИ — прежде всего продолжение воли его «создателя» или «владельца», сущность, не обладающая дееспособностью, и, соответственно, деликтоспособностью, т. е. способностью нести ответственность за вред, который оно причинило. В дальнейшем, для простоты, мы назовем такой «ограниченный» ИИ «ИИ-Агентом».
Конечно же, отсутствие дееспособности у ИИ-Агента не позволяет сказать, что такой агент не может причинить вред, а скорее даже наоборот. Высокочастотный трейдинг с помощью ИИ-Агента способен сжечь весь капитал своего фонда или даже дестабилизировать рынок, в 2017 году Тесла, управляемая ИИ-Агентом врезалась в грузовик, из-за чего погиб пассажир легкового автомобиля, в Аризоне такси под управлением ИИ-Агента сбило насмерть пешехода. Кроме того, применение таких систем в вооружениях — давняя мечта любого военного.
Этика подчинения: уязвимость и ответственность
В повседневной жизни мы подвергаем себя множеству опасностей, из-за чего в большинстве современных обществ сформировались нормы, устанавливающие стандарты поведения, которые позволяют ограничить или исключить реализацию риска.
Те риски, которые не охватываются частными соглашениями, как правило, переходят в публично-правовое поле и митигируются с помощью обязательных для всех (или многих) членов общества правилами.
Если такие правила нарушаются — право обычно предусматривает возмещение ущерба, который был понесен в связи с нарушением правил. К примеру, если лицо не платит налоги, то государство может (i) принудить его к оплате налогов (ii) оштрафовать и (iii) ограничить свободу нарушителя. Если прохожий разбил витрину — с него будет взыскана стоимость витрины, а если собака укусила прохожего — пострадавший вправе истребовать у хозяина пса моральный ущерб и компенсацию расходов на лечение.
Материализация убытков (деликта) происходит вследствие противоправного деяния против лица или его собственности, которая позволяет компенсировать ущерб через гражданский иск. Ответственность, возникающая в деликте, не зависит от существования договорных отношений между пострадавшим и виновным: она предусмотрена законом и наступает, как правило, вследствие виновности дееспособного и деликтоспособного лица.
Поскольку, как сказано ранее, мы живем в крайне уязвимом и хрупком мире, лицо, которое что-то сломало, хотя могло этого и не делать несет ответственность и должно возместить ущерб.
В странах с развитым правом для возникновения обязательства по возмещению ущерба должны быть выполнены все следующие условия:
i. наступление события, повлекшего ущерб
ii. возникший ущерб может быть оценен
iii. есть причинно-следственная связь между деянием и возникновением ущерба
iv. можно установить ответственное за ущерб лицо.
Исходя из того, что ИИ-Агент неделиктоспособен (поскольку не осознает себя, но выполняет команду человека) а лицо, ответственное за причиненный ущерб можно установить, проблематика, на первый взгляд, не кажется очень сложной.
На высоком уровне абстракции мы принимаем ИИ-Агента за сущность, подобную отбойному молотку: если отбойный молоток в руках частного лица причинил ущерб — такой ущерб должно возмещать такое частное лицо. Если же вы взяли отбойный неисправный отбойный молоток и без необходимой квалификации начали применять его для контр-интуитивной задачи по забивке гвоздей, и что-то пошло не так — виноваты только вы.
Но что делать, если ИИ-агент — не отбойный молоток, а инструмент по принятию решений о выдаче кредита, которое отказывает определенной категории людей, причем даже создатель инструмента не знает, какой именно? А если ИИ-Агент при управлении автомобилем сталкивается с классической проблемой вагонетки и вынужден выбирать между сохранением жизни состоятельного молодого пассажира и столкновением с бабушкой на пешеходном переходе? А если ИИ-Агент будет отвечать за управление танком, а не автомобилем?
Снятся ли андроидам римские юристы?
Размышляя над вопросом ответственности за действия ИИ-Агентов, автор задумался, не случалось ли раньше с человечеством ситуации, в которой развитие экономики и технологий влекло за собой новые вызовы для общества? Могут ли существующие правовые институты обеспечить необходимый режим защиты от действий ИИ-Агентов?
Две тысячи лет назад старые Римские юристы столкнулись с похожей юридической головоломкой, которую представляет собой ИИ для нынешних политиков. Расширение Римской Империи и беспрецедентный экономический рост, связанный с успешными военными кампаниями привел к повсеместному использованию в экономике рабского труда как в производстве, так и в хозяйстве. Увеличение количества рабов привело к тому, что они, будучи неделиктоспособными людьми, время от времени причиняли ущерб гражданам Рима, а также их имуществу (и рабам). По мере возрастания роли рабского труда в экономике, возник вопрос о том, каким же образом можно сдержать этот вред и как распределить ответственность, связанную с компенсацией вреда.
Старые Римские юристы подошли к вопросу крайне изобретательно, и создали новый правовой институт, регламентирующий уровень автономии принятия решений рабами: примечательно, что в классическом римском праве «naturalis obligatio», т. е. обязательство вследствие действия могло проистекать из сделок раба с другими людьми; но хозяин мог не быть участником таких сделок (Smith and Anthon, 1858).
Более того, владелец раба был связан обязательством вследствие действий раба только в том случае, если раб прямо выполнял волю владельца, или же был нанят им в качестве агента. Поэтому в ситуации, когда раб своими личными действиями повлек некий ущерб, за такой ущерб отвечал сам раб.
Аналогичные проблемы, связанные с развитием экономики разрешались аналогичным образом, например в довольно известном деле 1822 года «Guille v. Swan».
Господин Джилли терпел крушение на своем небольшом воздушном шаре, громко просил о помощи (так, что его услышало множество людей) в процессе, и приземлился в сад господина Суонна. При приземлении господина Джилли протащило по грядкам господина Суонна, а зеваки, услышав крики Господина Джилли перелезли через забор и вытоптали множество полезных культур.
После этого, господин Суонн пошел в суд, и оценил ущерб от падения господина Джилли в 15 долларов, а общий ущерб от действий пришедшей на помощь толпы в 90 долларов. При этом, никто из толпы не выступал по делу ответчиком. Суд разрешил дело следующим образом:
Господина Джилли обязали возместить весь ущерб, причиненный толпой, состоящей из Агентов спасения жертвы крушения воздушного шара.
Такой подход кажется гораздо более разумным: если общество (и юристы) примут, что у ИИ-Агента есть возможность причинить ущерб не только вследствие деяния создателя (владельца), но и вследствие собственного деяния ИИ-Агента — проблема поиска виновного решается сама собой.
Вместо заключения
К сожалению, человек не всегда может контролировать развитие человечества. Каждое десятилетие перед нами встают новые вызовы: от наплыва рабов в Рим и повсеместного распространения паровых машин на фабриках до ChatGPT, который плохо написал политику об обработке персональных данных, чем вызвал личную неприязнь в юридическом сообществе.
Но человек, по завету Марка Аврелия, может выбирать, как реагировать на новые вызовы. Проблематика ИИ-Агентов, их использования и сопутствующего вреда не может быть решена введением новых законов, но вред может быть компенсирован благодаря умелым действиям юристов и дотошному рассмотрению дела в суде. По крайней мере пока не будет создан сильный искусственный интеллект с собственной волей и самосознанием: правда, это уже совсем другая история.
Мы же в юридической компании «ЭБР» всегда рады помочь в восстановлении справедливости, так что если у вас будут какие-то проблемы с машинным обучением или другими IT-проектами — обязательно напишите нам на [email protected]: обещаем, что наших юристов нейросетями заменить нельзя.
Комментарий недоступен
Да, все верно!)
Насколько я знаю, концепт именно времен Кубрика, поэтому подписал так
нужно будет обязательно посмотреть