ИИ предсказывает будущих убийц

Представьте, полиция стучится в вашу дверь не потому, что вы совершили преступление, а потому, что однажды вы это сделаете. Британские учёные (зачёркнуто) власти запускают проект, который буквально пытается предсказать убийц с помощью анализа персональных данных граждан. (Привет, «Чёрное зеркало» и CityOS из игры Watch Dogs.)

Министерство юстиции Великобритании разрабатывает инициативу, изначально названную «Homicide Prediction Project» («Проект по прогнозированию убийств»). Сейчас, правда, её переименовали в нечто более нейтральное — «Sharing Data to Improve Risk Assessment» («Обмен данными для улучшения оценки рисков»), но нас не обманешь.

Идея проста (и неоднозначна): алгоритмы собирают данные о тысячах людей, а ИИ (точнее, модели машинного обучения) анализирует возраст, пол, этническую принадлежность, а также медицинские данные — от психологических проблем до историй попыток суицида. Всё это, чтобы вычислить вероятность тяжких преступлений.

Власти уверяют, что система будет использовать исключительно данные о людях, уже ранее осуждённых за преступления. Но правозащитники из организации Statewatch раскопали соглашения, из которых следует, что данные невиновных граждан тоже могут учитываться.

Британия, конечно, тут не первая. Мир всё активнее внедряет «predictive policing» (есть некоторые проблемы с переводом этого термина на русский, так как у нас нет прямого аналога, давайте называть это буквально — «предиктивная полиция»):

— В Нидерландах на национальном уровне успешно работает система CAS — Crime Anticipation System. Сеткой 125×125 метров площадь страны буквально поделена алгоритмом, предсказывающим преступления и подсказывающим, куда направить полицейские патрули.

— В Германии суд недавно признал использование софта от Palantir неправомерным, заявив о нарушении конституционных прав граждан на приватность.

— В Индии запустили систему MARVEL (не тот), анализирующую камеры наблюдения и исторические данные для предотвращения организованной преступности. Но снова — много вопросов по прозрачности и возможным злоупотреблениям.

— В Китае «предиктивная полиция» давно стал частью огромной инфраструктуры массовой слежки.

В России же интересной особенностью является то, что, в отличие от многих западных стран, где ИИ используется для прогнозирования общеуголовных преступлений — российские разработки делают акцент на контроле гражданских беспорядков.

«Ростех» к 2022 году намеревался разработать систему под названием «Прогнозно-аналитическая модель „Массовые беспорядки“» (ПАМ МБ) в рамках проекта «Безопасный город», курируемого МЧС. Эта система направлена на прогнозирование вероятности возникновения беспорядков с помощью анализа данных из СМИ, социальных сетей, видеонаблюдения и общественного транспорта, применяя методы ML. Информации об успешности внедрения системы и её работе по состоянию на нынешний год я не нашел.

Общая картина понятна: государства видят в алгоритмах возможность снизить преступность и повысить эффективность полиции. Но проблема вот в чём: такие системы полностью зависят от исторических данных, уже «зашитых» дискриминацией, стереотипами и социальными предрассудками.

Будущее, где роботы арестовывают людей «на всякий случай», стало чуть ближе.

Подписывайтесь на Telegram-канал Нейрократия.

1
Начать дискуссию