В Англии обсуждают ИИ как субъект права
31 июля 2025 года Комиссия по праву Англии и Уэльса опубликовала дискуссионный документ “AI and the Law: a discussion paper” (ссылка на анонс с документом), который может стать началом обсуждения революционного правового вопроса.
Впервые на столь официальном уровне обсуждается идея признания искусственного интеллекта субъектом права. С хоть и ограниченными, но реальными правами и обязанностями.
Почему этот вопрос возник именно сейчас
ИИ-системы всё чаще действуют автономно, принимают решения без прямого контроля человека, иногда даже выступая ключевыми “акторами” в сложных сделках или процессах. Это поднимает вопрос: кого считать ответственным за последствия: разработчика, пользователя или саму систему? Проблема не теоретическая: в современной системе традиционные механизмы ответственности уже не всегда работают.
Комиссия подчёркивает: если технологии продолжат развиваться такими же темпами, вопрос о присвоении правовой субъектности ИИ неизбежно встанет на повестку дня. Пока это только начало дискуссии, но само появление официального документа с такой постановкой вопроса — шаг, который еще недавно казался бы абсурдным.
Аргументы в пользу признания ИИ субъектом права
Первый блок аргументов — устранение пробелов ответственности. Когда сложная ИИ-система действует практически самостоятельно, сложно провести чёткую причинно-следственную связь между ошибкой и конкретным человеком. Признание определённых ИИ субъектами может позволить формализовать правила ответственности, например, в случаях причинения вреда третьим лицам.
Второй аргумент — стимулирование инноваций. Если правила игры будут заранее известны, разработчики смогут лучше учитывать потенциальные риски, создавать системы более прозрачными и безопасными.
Аргументы против: риски и проблемы реализации
Однако рисков не меньше. Главный — потенциальное создание “ответственного щита”: если вина будет формально лежать на ИИ, а не на компаниях-разработчиках или пользователях, это может привести к злоупотреблениям и фактической безнаказанности реальных выгодоприобретателей.
Кроме того, встает целый ряд технических вопросов: как будет определяться личность конкретной ИИ-системы, как её идентифицировать, может ли такая система владеть активами, вступать в договорные отношения, нести ответственность по обязательствам.
Каким ИИ может быть присвоена правовая субъектность
Дискуссия не идёт о всех подряд технологиях, а только о системах с высоким уровнем автономности, сложными цепочками принятия решений и “самостоятельностью”, то есть агентные ИИ, способные заключать сделки, управлять финансами, вести учёт.
В документе отдельно подчёркивается, что любая возможная реформа будет предусматривать, скорее всего, ограниченную и строго регламентированную правосубъектность с учётом уровня автономности, сферы применения и прозрачности механизмов управления и пр.
Позиция Комиссии: ни одна из моделей не навязывается
На данный момент речь идёт о дискуссионном документе, а не о готовых законопроектах. Комиссия прямо говорит: задача — стимулировать широкое профессиональное обсуждение, а не навязать какой-либо сценарий.
Документ – это только начало обсуждения, а не конкретное предложение реформы. Но сама постановка вопроса является (возможно) первым звоночком. Прелюдией к тому, что нас может ждать через 10-20 лет. А может, еще раньше...
Делюсь новостями на стыке ИИ и права, а также результатами моих экспериментов по использованию нейросетей в юридической работе в ТГ-канале. Если вам нравится контент, подписывайтесь!