В Англии обсуждают ИИ как субъект права

31 июля 2025 года Комиссия по праву Англии и Уэльса опубликовала дискуссионный документ “AI and the Law: a discussion paper” (ссылка на анонс с документом), который может стать началом обсуждения революционного правового вопроса.

Впервые на столь официальном уровне обсуждается идея признания искусственного интеллекта субъектом права. С хоть и ограниченными, но реальными правами и обязанностями.

Почему этот вопрос возник именно сейчас

ИИ-системы всё чаще действуют автономно, принимают решения без прямого контроля человека, иногда даже выступая ключевыми “акторами” в сложных сделках или процессах. Это поднимает вопрос: кого считать ответственным за последствия: разработчика, пользователя или саму систему? Проблема не теоретическая: в современной системе традиционные механизмы ответственности уже не всегда работают.

Комиссия подчёркивает: если технологии продолжат развиваться такими же темпами, вопрос о присвоении правовой субъектности ИИ неизбежно встанет на повестку дня. Пока это только начало дискуссии, но само появление официального документа с такой постановкой вопроса — шаг, который еще недавно казался бы абсурдным.

Аргументы в пользу признания ИИ субъектом права

Первый блок аргументов — устранение пробелов ответственности. Когда сложная ИИ-система действует практически самостоятельно, сложно провести чёткую причинно-следственную связь между ошибкой и конкретным человеком. Признание определённых ИИ субъектами может позволить формализовать правила ответственности, например, в случаях причинения вреда третьим лицам.

Второй аргумент — стимулирование инноваций. Если правила игры будут заранее известны, разработчики смогут лучше учитывать потенциальные риски, создавать системы более прозрачными и безопасными.

Аргументы против: риски и проблемы реализации

Однако рисков не меньше. Главный — потенциальное создание “ответственного щита”: если вина будет формально лежать на ИИ, а не на компаниях-разработчиках или пользователях, это может привести к злоупотреблениям и фактической безнаказанности реальных выгодоприобретателей.

Кроме того, встает целый ряд технических вопросов: как будет определяться личность конкретной ИИ-системы, как её идентифицировать, может ли такая система владеть активами, вступать в договорные отношения, нести ответственность по обязательствам.

Каким ИИ может быть присвоена правовая субъектность

Дискуссия не идёт о всех подряд технологиях, а только о системах с высоким уровнем автономности, сложными цепочками принятия решений и “самостоятельностью”, то есть агентные ИИ, способные заключать сделки, управлять финансами, вести учёт.

В документе отдельно подчёркивается, что любая возможная реформа будет предусматривать, скорее всего, ограниченную и строго регламентированную правосубъектность с учётом уровня автономности, сферы применения и прозрачности механизмов управления и пр.

Позиция Комиссии: ни одна из моделей не навязывается

На данный момент речь идёт о дискуссионном документе, а не о готовых законопроектах. Комиссия прямо говорит: задача — стимулировать широкое профессиональное обсуждение, а не навязать какой-либо сценарий.

Документ – это только начало обсуждения, а не конкретное предложение реформы. Но сама постановка вопроса является (возможно) первым звоночком. Прелюдией к тому, что нас может ждать через 10-20 лет. А может, еще раньше...

Делюсь новостями на стыке ИИ и права, а также результатами моих экспериментов по использованию нейросетей в юридической работе в ТГ-канале. Если вам нравится контент, подписывайтесь!

Начать дискуссию