Деликт, вред и роботы: кто в ответе, если ChatGPT дал плохой совет

Анализируем правовую природу действий «искусственного интеллекта», разбираем отдельные правовые последствия и пробуем немного успокоить отдельных коллег.

Концепт-арт для Стенли Кубрика
Концепт-арт для Стенли Кубрика

Предыдущие 15 лет можно назвать бронзовым веком интеллектуальных компьютерных программ: с каждым днем проникновение нейросетей в нашу жизнь становится все глубже, а их возможности — мощнее и шире.

Сегодня миллионы нейросетей встроены в инфраструктуру целых государств, отраслей и бизнесов, ИИ запускает четвертую промышленную революцию, его потенциальная эффективность и прирост производительности беспрецедентны.

С развитием «автопилота» Tesla, предиктивной аналитики, распознавания лиц, сервисов вроде ChatGPT и так называемого искусственного интеллекта в целом, перед обществом встает вполне очевидный, но довольно неоднозначный вопрос: если робот все таки навредит человеку, кто понесет ответственность за этот вред?

Некоторые юристы довольно эмоционально высказываются о том, что искусственный интеллект — не только причинит зло, но и останется безнаказанным. Мы, в свою очередь, предлагаем альтернативный (правовой) взгляд на проблему.

Michel Kirch
Michel Kirch

Что такое «искусственный интеллект» и может ли он действовать интеллектуально?

Поскольку закона, определяющего искусственный интеллект пока не существует, для целей статьи мы возьмем базовое определение у автора книги The Quest for Artificial Intelligence: A History of Ideas and Achievements Нильса Джон Нильссона:

Искусственный интеллект — это деятельность (человека), направленная на создание разумной искусственной машины, а разум — это то качество, которое позволяет сущности действовать в своей среде предусмотрительно и надлежащим образом.

Nilsson, J. Nils.

Как следует из определения, основной критерий разума, которым может быть наделен ИИ — способность действовать надлежащим, т. е. предусмотренным человеком-«создателем» образом. ИИ на своем текущем этапе развития не только может выполнять некоторые задачи лучше человека, но и обладает тем, что можно назвать «творческим потенциалом»: ИИ успешно отвечает на вопросы, рисует изображения, создает музыку и даже пишет небольшую часть этого текста (в соавторстве с человеком).

При этом, ИИ делает это не по своей воле: задачу ему, в общем случае, дает человек. У ИИ нет того, что мы считаем сознанием или страстью: робот уже способен написать симфонию, но пока не может сделать этого по своей воле, без желания человека. Исходя из этого, мы можем сделать вывод о том, что ИИ — прежде всего продолжение воли его «создателя» или «владельца», сущность, не обладающая дееспособностью, и, соответственно, деликтоспособностью, т. е. способностью нести ответственность за вред, который оно причинило. В дальнейшем, для простоты, мы назовем такой «ограниченный» ИИ «ИИ-Агентом».

Конечно же, отсутствие дееспособности у ИИ-Агента не позволяет сказать, что такой агент не может причинить вред, а скорее даже наоборот. Высокочастотный трейдинг с помощью ИИ-Агента способен сжечь весь капитал своего фонда или даже дестабилизировать рынок, в 2017 году Тесла, управляемая ИИ-Агентом врезалась в грузовик, из-за чего погиб пассажир легкового автомобиля, в Аризоне такси под управлением ИИ-Агента сбило насмерть пешехода. Кроме того, применение таких систем в вооружениях — давняя мечта любого военного.

Scott Adam 
Scott Adam 

Этика подчинения: уязвимость и ответственность

В повседневной жизни мы подвергаем себя множеству опасностей, из-за чего в большинстве современных обществ сформировались нормы, устанавливающие стандарты поведения, которые позволяют ограничить или исключить реализацию риска.
Те риски, которые не охватываются частными соглашениями, как правило, переходят в публично-правовое поле и митигируются с помощью обязательных для всех (или многих) членов общества правилами.

Если такие правила нарушаются — право обычно предусматривает возмещение ущерба, который был понесен в связи с нарушением правил. К примеру, если лицо не платит налоги, то государство может (i) принудить его к оплате налогов (ii) оштрафовать и (iii) ограничить свободу нарушителя. Если прохожий разбил витрину — с него будет взыскана стоимость витрины, а если собака укусила прохожего — пострадавший вправе истребовать у хозяина пса моральный ущерб и компенсацию расходов на лечение.

Материализация убытков (деликта) происходит вследствие противоправного деяния против лица или его собственности, которая позволяет компенсировать ущерб через гражданский иск. Ответственность, возникающая в деликте, не зависит от существования договорных отношений между пострадавшим и виновным: она предусмотрена законом и наступает, как правило, вследствие виновности дееспособного и деликтоспособного лица.

Поскольку, как сказано ранее, мы живем в крайне уязвимом и хрупком мире, лицо, которое что-то сломало, хотя могло этого и не делать несет ответственность и должно возместить ущерб.

В странах с развитым правом для возникновения обязательства по возмещению ущерба должны быть выполнены все следующие условия:
i. наступление события, повлекшего ущерб
ii. возникший ущерб может быть оценен
iii. есть причинно-следственная связь между деянием и возникновением ущерба
iv. можно установить ответственное за ущерб лицо.

Исходя из того, что ИИ-Агент неделиктоспособен (поскольку не осознает себя, но выполняет команду человека) а лицо, ответственное за причиненный ущерб можно установить, проблематика, на первый взгляд, не кажется очень сложной.

На высоком уровне абстракции мы принимаем ИИ-Агента за сущность, подобную отбойному молотку: если отбойный молоток в руках частного лица причинил ущерб — такой ущерб должно возмещать такое частное лицо. Если же вы взяли отбойный неисправный отбойный молоток и без необходимой квалификации начали применять его для контр-интуитивной задачи по забивке гвоздей, и что-то пошло не так — виноваты только вы.

Но что делать, если ИИ-агент — не отбойный молоток, а инструмент по принятию решений о выдаче кредита, которое отказывает определенной категории людей, причем даже создатель инструмента не знает, какой именно? А если ИИ-Агент при управлении автомобилем сталкивается с классической проблемой вагонетки и вынужден выбирать между сохранением жизни состоятельного молодого пассажира и столкновением с бабушкой на пешеходном переходе? А если ИИ-Агент будет отвечать за управление танком, а не автомобилем?

Деликт, вред и роботы: кто в ответе, если ChatGPT дал плохой совет

Снятся ли андроидам римские юристы?

Размышляя над вопросом ответственности за действия ИИ-Агентов, автор задумался, не случалось ли раньше с человечеством ситуации, в которой развитие экономики и технологий влекло за собой новые вызовы для общества? Могут ли существующие правовые институты обеспечить необходимый режим защиты от действий ИИ-Агентов?

История — учительница жизни.

Цицерон

Две тысячи лет назад старые Римские юристы столкнулись с похожей юридической головоломкой, которую представляет собой ИИ для нынешних политиков. Расширение Римской Империи и беспрецедентный экономический рост, связанный с успешными военными кампаниями привел к повсеместному использованию в экономике рабского труда как в производстве, так и в хозяйстве. Увеличение количества рабов привело к тому, что они, будучи неделиктоспособными людьми, время от времени причиняли ущерб гражданам Рима, а также их имуществу (и рабам). По мере возрастания роли рабского труда в экономике, возник вопрос о том, каким же образом можно сдержать этот вред и как распределить ответственность, связанную с компенсацией вреда.

Старые Римские юристы подошли к вопросу крайне изобретательно, и создали новый правовой институт, регламентирующий уровень автономии принятия решений рабами: примечательно, что в классическом римском праве «naturalis obligatio», т. е. обязательство вследствие действия могло проистекать из сделок раба с другими людьми; но хозяин мог не быть участником таких сделок (Smith and Anthon, 1858).

Более того, владелец раба был связан обязательством вследствие действий раба только в том случае, если раб прямо выполнял волю владельца, или же был нанят им в качестве агента. Поэтому в ситуации, когда раб своими личными действиями повлек некий ущерб, за такой ущерб отвечал сам раб.

Аналогичные проблемы, связанные с развитием экономики разрешались аналогичным образом, например в довольно известном деле 1822 года «Guille v. Swan».

Господин Джилли терпел крушение на своем небольшом воздушном шаре, громко просил о помощи (так, что его услышало множество людей) в процессе, и приземлился в сад господина Суонна. При приземлении господина Джилли протащило по грядкам господина Суонна, а зеваки, услышав крики Господина Джилли перелезли через забор и вытоптали множество полезных культур.

После этого, господин Суонн пошел в суд, и оценил ущерб от падения господина Джилли в 15 долларов, а общий ущерб от действий пришедшей на помощь толпы в 90 долларов. При этом, никто из толпы не выступал по делу ответчиком. Суд разрешил дело следующим образом:

Now, if his descent, under such circumstances, would, ordinarily and naturally, draw a crowd of people about him, either from curiosity, or for the purpose of rescuing him from a perilous situation; all this he ought to have foreseen, and must be responsible for. Whether the crowd heard him call for help or not, is immaterial; he had put himself in a situation to invite help, and they rushed forward, impelled, perhaps, by the double motive of rendering aid, and gratifying a curiosity which he had excited.… we must consider the situation in which he placed himself, voluntarily and designedly, as equivalent to a direct request to the crowd to follow him.

(Guille v. Swan case, Supreme Court of New York, 19 Johns. 381, 1822)

Господина Джилли обязали возместить весь ущерб, причиненный толпой, состоящей из Агентов спасения жертвы крушения воздушного шара.

Такой подход кажется гораздо более разумным: если общество (и юристы) примут, что у ИИ-Агента есть возможность причинить ущерб не только вследствие деяния создателя (владельца), но и вследствие собственного деяния ИИ-Агента — проблема поиска виновного решается сама собой.

Кажется, Марк Аврелий вполне мог победить ущерб от ИИ-Агента с помощью простой римской правовой нормы
Кажется, Марк Аврелий вполне мог победить ущерб от ИИ-Агента с помощью простой римской правовой нормы

Вместо заключения

К сожалению, человек не всегда может контролировать развитие человечества. Каждое десятилетие перед нами встают новые вызовы: от наплыва рабов в Рим и повсеместного распространения паровых машин на фабриках до ChatGPT, который плохо написал политику об обработке персональных данных, чем вызвал личную неприязнь в юридическом сообществе.

Но человек, по завету Марка Аврелия, может выбирать, как реагировать на новые вызовы. Проблематика ИИ-Агентов, их использования и сопутствующего вреда не может быть решена введением новых законов, но вред может быть компенсирован благодаря умелым действиям юристов и дотошному рассмотрению дела в суде. По крайней мере пока не будет создан сильный искусственный интеллект с собственной волей и самосознанием: правда, это уже совсем другая история.

Мы же в юридической компании «ЭБР» всегда рады помочь в восстановлении справедливости, так что если у вас будут какие-то проблемы с машинным обучением или другими IT-проектами — обязательно напишите нам на ebr@ebr.su: обещаем, что наших юристов нейросетями заменить нельзя.

66
3 комментария

Комментарий недоступен

1
Ответить

Да, все верно!)
Насколько я знаю, концепт именно времен Кубрика, поэтому подписал так

Ответить

нужно будет обязательно посмотреть

Ответить