ИИ, используемый полицией, не может отличить чернокожих людей друг от друга

Искусственный интеллект — мощный инструмент. В руках государственной полиции и других органов уголовного правосудия ИИ может привести к несправедливости. Например, житель Детройта Роберт Уильямс был арестован на глазах у своих детей и содержался под стражей в течение ночи после ложного срабатывания системы распознавания лиц на основе ИИ. Имя Уильямса было в системе в течение многих лет, и ему пришлось подать в суд на полицию и местные органы власти за неправомерный арест, чтобы добиться его удаления. В конце концов он узнал, что неисправный ИИ идентифицировал его как подозреваемого.

ИИ, используемый полицией, не может отличить чернокожих людей друг от друга

За углом то же самое произошло с другим жителем Детройта, Майклом Оливером, а в Нью-Джерси — с Ниджиром Парксом . У этих троих мужчин есть две общие черты. Во-первых, все они стали жертвами ложных срабатываний в системах распознавания лиц на основе искусственного интеллекта. И, во-вторых, все они — чернокожие мужчины.

Оказывается: системы распознавания лиц на основе искусственного интеллекта не могут отличить большинство цветных людей друг от друга. Согласно одному исследованию, процент ошибок самый высокий среди чернокожих женщин — 35%.

Эти примеры раскрывают важнейшие проблемы, возникающие при использовании ИИ в правоохранительной и юридической деятельности, особенно в настоящий момент, когда ИИ используется в системе уголовного правосудия, а также в государственном и частном секторах больше, чем когда-либо прежде.

В Канаде: новые законы, старые проблемы

В настоящее время в Канаде рассматриваются два новых закона, которые будут иметь серьезные последствия для использования ИИ на долгие годы вперед. Оба закона не обеспечивают защиту общественности, когда речь идет об использовании ИИ полицией. Как ученые, изучающие компьютерные науки, полицейскую деятельность и право, мы обеспокоены этими пробелами.

В Онтарио законопроект 194 , или Закон об укреплении кибербезопасности и укреплении доверия в государственном секторе, ориентирован на использование ИИ в государственном секторе.

Федеральный законопроект C-27 вводит в действие Закон об искусственном интеллекте и данных (AIDA). Хотя AIDA ориентирован на частный сектор, он имеет последствия и для государственного сектора из-за большого количества государственно-частных партнерств в правительстве.

Государственная полиция использует ИИ в качестве владельцев и операторов ИИ. Они также могут нанять частное агентство в качестве доверенного лица для проведения анализов на основе ИИ.

В связи с публичным использованием ИИ в частном секторе даже законы, призванные регулировать использование ИИ в частном секторе, должны предусматривать правила взаимодействия для органов уголовного правосудия, использующих эту технологию.

Расовое профилирование и ИИ

ИИ обладает мощными предиктивными возможностями. Используя машинное обучение, ИИ может получать базу данных профилей, чтобы «определить» вероятность того, кто что может сделать, или сопоставить лица с профилями. ИИ также может определять, куда направляются полицейские патрули, основываясь на данных о прошлых преступлениях.

Эти методы звучат так, будто они могут повысить эффективность или уменьшить предвзятость. Однако использование полицией ИИ может усилить расовое профилирование и увеличить ненужные развертывания полиции.

Группы по защите гражданских свобод и конфиденциальности написали отчеты об ИИ и методах наблюдения. Они приводят примеры расовой предвзятости в местах, где полиция использует технологию ИИ. И указывают на множество ложных арестов.

В Канаде Королевская канадская конная полиция (RCMP) и другие полицейские агентства, включая полицейскую службу Торонто и полицию провинции Онтарио, уже были вызваны Управлением комиссара по вопросам конфиденциальности Канады за использование технологии искусственного интеллекта Clearview для ведения массового наблюдения .

Clearview AI имеет базу данных из более чем трех миллиардов изображений, которые были собраны без согласия путем скрапинга интернета. Clearview AI сопоставляет лица из базы данных с другими кадрами. Это нарушает канадские законы о конфиденциальности. Управление комиссара по вопросам конфиденциальности Канады раскритиковало использование этой технологии Королевской канадской конной полицией, а полицейские службы Торонто приостановили использование этого продукта.

Исключив регулирование деятельности правоохранительных органов из законопроекта 194 и законопроекта C-27, компании ИИ в Канаде могли бы обеспечить аналогичное массовое наблюдение.

ЕС лидирует

На международном уровне достигнуты успехи в регулировании использования ИИ в государственном секторе.

На сегодняшний день Закон Европейского Союза об искусственном интеллекте является лучшим в мире законодательным актом, когда речь идет о защите частной жизни и гражданских свобод граждан.

Закон ЕС об искусственном интеллекте применяет подход к регулированию ИИ, основанный на оценке риска и вреда, ожидая, что пользователи ИИ должны будут предпринять конкретные шаги для защиты личной информации и предотвращения массового наблюдения.

Напротив, и канадские, и американские законы противопоставляют право граждан на свободу от массового наблюдения стремлению корпораций быть эффективными и конкурентоспособными.

Еще есть время внести изменения

Еще есть время для внесения изменений. Законопроект 194 обсуждается Законодательным собранием Онтарио. А законопроект C-27 обсуждается в канадском парламенте.

Исключение полиции и органов уголовного правосудия из законопроекта 194 и законопроекта C-27 является вопиющим упущением. Это потенциально подрывает репутацию правосудия в Канаде.

Комиссия по законодательству Онтарио раскритиковала законопроект 194. Они говорят, что предлагаемый закон не способствует правам человека или конфиденциальности и позволит беспрепятственно использовать ИИ способами, которые могут нарушить конфиденциальность канадцев. Они говорят, что законопроект 194 позволит государственным органам использовать ИИ в тайне, утверждая, что законопроект 194 игнорирует использование ИИ полицией, тюрьмами, судами и другими органами уголовного правосудия.

Касательно законопроекта C-27 Канадская ассоциация гражданских свобод (CCLA) выпустила предостерегающую записку и подала петицию об отзыве законопроекта. Они утверждают, что меры регулирования в законопроекте C-27 направлены на повышение производительности частного сектора и интеллектуального анализа данных, а не на защиту конфиденциальности и гражданских свобод граждан Канады.

Учитывая, что полиция и агентства национальной безопасности часто работают с частными поставщиками в сфере наблюдения и разведывательной деятельности, необходимы правила, охватывающие такие партнерства. Однако полиция и агентства национальной безопасности не упоминаются в законопроекте C-27.

CCLA рекомендует привести законопроект C-27 в соответствие с Законом Европейского союза об искусственном интеллекте, включив в него меры по предотвращению массового наблюдения и защите от злоупотреблений полномочиями искусственного интеллекта.

Это будут первые законы Канады об ИИ. Мы на годы отстаем от того, где должно быть регулирование, чтобы предотвратить злоупотребления использованием ИИ в государственном и частном секторах.

В период роста использования ИИ органами уголовного правосудия необходимо внести изменения в законопроект 194 и законопроект C-27, чтобы защитить граждан Канады.

1515
44
22
10 комментариев

ИИ, используемый полицией, не может отличить чернокожих людей друг от другаКазалось бы, с азиатами сложнее... но нет, "ИИ" пошел по историческому пути.

Ответить

Просто есть ИИ здорового человека, а это ИИ расиста.

Ответить

А зачем? Всё видно невооруженным глазом)

Ответить

Я думаю что это супер логично, поскольку темная кожа меньше отражает свет и имеет меньшую контрастность, что вызывает высокий процент ошибок

Ответить

Там негров унижают!!!

Ответить

я думаю это все же связано с обучением, тут нужно специалистам задавать вопрос как они обучали его

Ответить