Будущее господство ИИ в праве и судах все еще под вопросом. Кажется, пока что так даже лучше
Уже второе исследование подтверждает, что поведение человека слишком непредсказуемо и вариативно, чтобы целиком отдавать его правовую оценку на откуп машинам.
В июле этого года в американском журнале "Труды Национальной академии наук" (Proceedings of the National Academy of Sciences) вышла вторая статья о несовершенстве машинных алгоритмов в вопросах анализа человеческого поведения. В ней подводятся итоги неудавшегося эксперимента по прогнозированию жизненных и учебных достижений школьников к их 15-летию.
В ней ученые выделяют два типа ошибок, которые препятствуют достаточному машинному анализу жизни человека. И как их сейчас разрешить - не ясно.
Первый тип - неустранимые ошибки
Одним из критериев успешности школьников являлась учебная успеваемость. И когда успеваемость вдруг стала падать, машина не могла связать это с поведением одного из мальчиков, которому разрешили делать уроки в подвале, где вместо этого он с успехом играл в видеоигры.
Алгоритмы машины, ее база данных просто не располагала информацией о такой "опции" ребенка. А значит, не могла сделать верный вывод относительно причин и успеха, то есть объяснить конкретное поведение, что чрезвычайно важно в юриспруденции при установлении, например, фактов злоупотребления правом или направленности умысла.
К слову, недавнее покушение на бывшего президента США Д. Трампа (а ведь это не только политическое событие, но и преступное деяние) также вряд ли могло быть спрогнозировано: последний раз аналогичное покушение (удавшееся) имело место 61 год назад. И, похоже, из него сделали определенные выводы, которые должны были исключить повторение случившегося - на этом в любом случае строился бы прогноз машиной.
Второй тип - ошибки обучения
Логично проистекает из первого. Как пишут авторы, огромное количество данных не столько позволяет дообучить машину, сколько запутывает ее в множестве причинно-следственных связей, однотипность которых могла сформироваться в совершенно разных обстоятельствах и при отличных друг от друга мотивах.
Таким образом, исследователи пришли к выводу, что крайне малое число данных неизбежно приводит к неустранимым ошибкам, а чрезвычайно большое - к ошибкам обучения. Парадоксально, но факт.
Их выводы построены на результатах анализа проведенного еще в 2020 году эксперимента (статья также здесь). В нем они сопоставляли прогнозы машин на основе данных участников эксперимента с тем, что получалось в реальности. Предсказательная модель не справилась с приемлемой точностью ни с одним прогнозом.
Если мы уж школьников пока не можем спрогнозировать, что говорить о преступной личности. И как быть со множеством экономических отношений, бизнес-стратегий, организованной преступностью и случайным причинением вреда?
А что с практикой: мнение
Не скрою, мне как практикующему юристу приятно слышать и читать, что архаизация профессии как минимум находится под вопросом. С другой стороны, здесь же начинается множество других вопросов: "по каким основаниям ИИ сможет принимать решения?", "как он будет мотивировать это?", "на какие нарушения в случае несогласия с решением ИИ необходимо будет жаловаться?", "как чувство справедливости будет объективировано в механизм работы ИИ?".
К тому же не ясно, как быть, если решение не удовлетворяет ни одну из сторон, но формально соответствует юридическим законам и принято ИИ при соблюдении машинных алгоритмов его выработки?
Действительно, рутинную работу машины способны облегчить: помочь составить шаблонный иск или договор, просчитать задолженность, помочь найти релевантную судебную практику и даже попробовать предсказать решение (последнее - крайне неблагодарное дело). Но в вопросах принятия решения (а я речь веду из опыта судебных разбирательств) все, как принято говорить, очень индивидуально. И с этим сейчас у машин большие сложности.
Мне в целом кажется, что если серьезно относиться к решению жизненно важного вопроса, находящегося в правовой плоскости, отдать его на разрешение машины - все равно что сыграть в азартную игру. Ничем, кроме информации, там не помочь, а как сработает машина - большой вопрос.
В одном из групповых убийств суд намного более строго наказал организатора, чем исполнителя, лишь за то, что руководящему преступлением лицу было достаточно сказать одного слова для прекращения посягательства - вот какой властью над исполнителем он располагал и какую действительную ответственность должен был нести. И это разумно, но как бы поступила в этом случае машина?
Жизнь действительно намного более многогранна и требует того же человеческого подхода и понимания (не всегда солидарности), что и при проживании ее людьми. Машина в этом вопросе - инструмент, но не субъект.
К слову, даже если заиметь столько мощности для анализа и использовать самые продвинутые алгоритмы, сколько потребуется ресурсов и баз данных для анализа? В мой iPhone не умещаются все "обрывки" каких-то жизненных моментов, а моя личная память хранит даже те воспоминания, о которых на первый взгляд я даже ничего и никогда не знал. И это лишь про одного человека, а что сказать про 8 млрд. населения?
В конце концов, когда речь заходит о любых других ваших отношениях, вы вряд ли захотите общаться с ИИ, а выберете кого-то другого, кого-то живого. Это в полной мере относится и правоотношениям.
Друзья, я не программист, а профессиональный юрист. Возможно, я не понимаю технических тонкостей и деталей, но полагаю, что специалисты-авторы статей и исследования в этом кое-что понимают.
И тем не менее мне видится, что недостатки машинного правосудия и программных решений мы остро почувствуем ровно тогда, как только они начнут воплощаться в жизнь (надеюсь, не будут). И что-то мне подсказывает, что всем нам сильно захочется на место машины вернуть человека.
да пытались уже, "местные" будут серьезно сопротивляться