Будущее господство ИИ в праве и судах все еще под вопросом. Кажется, пока что так даже лучше

Уже второе исследование подтверждает, что поведение человека слишком непредсказуемо и вариативно, чтобы целиком отдавать его правовую оценку на откуп машинам.

График, выведенный по результатам эксперимента: выделены ошибки обучения и неустранимые ошибки. Последние - от неизвестности об особенностях каждого человека. Ошибки обучения - от нелинейности зависим
График, выведенный по результатам эксперимента: выделены ошибки обучения и неустранимые ошибки. Последние - от неизвестности об особенностях каждого человека. Ошибки обучения - от нелинейности зависим

В июле этого года в американском журнале "Труды Национальной академии наук" (Proceedings of the National Academy of Sciences) вышла вторая статья о несовершенстве машинных алгоритмов в вопросах анализа человеческого поведения. В ней подводятся итоги неудавшегося эксперимента по прогнозированию жизненных и учебных достижений школьников к их 15-летию.

В ней ученые выделяют два типа ошибок, которые препятствуют достаточному машинному анализу жизни человека. И как их сейчас разрешить - не ясно.

Первый тип - неустранимые ошибки

Одним из критериев успешности школьников являлась учебная успеваемость. И когда успеваемость вдруг стала падать, машина не могла связать это с поведением одного из мальчиков, которому разрешили делать уроки в подвале, где вместо этого он с успехом играл в видеоигры.

Алгоритмы машины, ее база данных просто не располагала информацией о такой "опции" ребенка. А значит, не могла сделать верный вывод относительно причин и успеха, то есть объяснить конкретное поведение, что чрезвычайно важно в юриспруденции при установлении, например, фактов злоупотребления правом или направленности умысла.

К слову, недавнее покушение на бывшего президента США Д. Трампа (а ведь это не только политическое событие, но и преступное деяние) также вряд ли могло быть спрогнозировано: последний раз аналогичное покушение (удавшееся) имело место 61 год назад. И, похоже, из него сделали определенные выводы, которые должны были исключить повторение случившегося - на этом в любом случае строился бы прогноз машиной.

Второй тип - ошибки обучения

Логично проистекает из первого. Как пишут авторы, огромное количество данных не столько позволяет дообучить машину, сколько запутывает ее в множестве причинно-следственных связей, однотипность которых могла сформироваться в совершенно разных обстоятельствах и при отличных друг от друга мотивах.

Таким образом, исследователи пришли к выводу, что крайне малое число данных неизбежно приводит к неустранимым ошибкам, а чрезвычайно большое - к ошибкам обучения. Парадоксально, но факт.

Их выводы построены на результатах анализа проведенного еще в 2020 году эксперимента (статья также здесь). В нем они сопоставляли прогнозы машин на основе данных участников эксперимента с тем, что получалось в реальности. Предсказательная модель не справилась с приемлемой точностью ни с одним прогнозом.

Если мы уж школьников пока не можем спрогнозировать, что говорить о преступной личности. И как быть со множеством экономических отношений, бизнес-стратегий, организованной преступностью и случайным причинением вреда?

Как думаете, заменят ли машины юристов (вне рутины)?
Конечно, вопрос времени. И так даже лучше.
Возможно, но пока не ясно. Поживем - увидим.
Вряд ли. Слишком много всего надо учесть.
Не хочу, чтобы мои человеческие действия оценивала программа.

А что с практикой: мнение

Не скрою, мне как практикующему юристу приятно слышать и читать, что архаизация профессии как минимум находится под вопросом. С другой стороны, здесь же начинается множество других вопросов: "по каким основаниям ИИ сможет принимать решения?", "как он будет мотивировать это?", "на какие нарушения в случае несогласия с решением ИИ необходимо будет жаловаться?", "как чувство справедливости будет объективировано в механизм работы ИИ?".

К тому же не ясно, как быть, если решение не удовлетворяет ни одну из сторон, но формально соответствует юридическим законам и принято ИИ при соблюдении машинных алгоритмов его выработки?

Действительно, рутинную работу машины способны облегчить: помочь составить шаблонный иск или договор, просчитать задолженность, помочь найти релевантную судебную практику и даже попробовать предсказать решение (последнее - крайне неблагодарное дело). Но в вопросах принятия решения (а я речь веду из опыта судебных разбирательств) все, как принято говорить, очень индивидуально. И с этим сейчас у машин большие сложности.

Мне в целом кажется, что если серьезно относиться к решению жизненно важного вопроса, находящегося в правовой плоскости, отдать его на разрешение машины - все равно что сыграть в азартную игру. Ничем, кроме информации, там не помочь, а как сработает машина - большой вопрос.

В одном из групповых убийств суд намного более строго наказал организатора, чем исполнителя, лишь за то, что руководящему преступлением лицу было достаточно сказать одного слова для прекращения посягательства - вот какой властью над исполнителем он располагал и какую действительную ответственность должен был нести. И это разумно, но как бы поступила в этом случае машина?

Жизнь действительно намного более многогранна и требует того же человеческого подхода и понимания (не всегда солидарности), что и при проживании ее людьми. Машина в этом вопросе - инструмент, но не субъект.

К слову, даже если заиметь столько мощности для анализа и использовать самые продвинутые алгоритмы, сколько потребуется ресурсов и баз данных для анализа? В мой iPhone не умещаются все "обрывки" каких-то жизненных моментов, а моя личная память хранит даже те воспоминания, о которых на первый взгляд я даже ничего и никогда не знал. И это лишь про одного человека, а что сказать про 8 млрд. населения?

В конце концов, когда речь заходит о любых других ваших отношениях, вы вряд ли захотите общаться с ИИ, а выберете кого-то другого, кого-то живого. Это в полной мере относится и правоотношениям.

Друзья, я не программист, а профессиональный юрист. Возможно, я не понимаю технических тонкостей и деталей, но полагаю, что специалисты-авторы статей и исследования в этом кое-что понимают.

И тем не менее мне видится, что недостатки машинного правосудия и программных решений мы остро почувствуем ровно тогда, как только они начнут воплощаться в жизнь (надеюсь, не будут). И что-то мне подсказывает, что всем нам сильно захочется на место машины вернуть человека.

22
1 комментарий

да пытались уже, "местные" будут серьезно сопротивляться

Ответить