NewTechAudit
Elena Kustova
162

Искусственный интеллект и закон

«Любая достаточно развитая технология неотличима от магии»
3-й закон Кларка.

В закладки

Ни для кого не секрет, что в наше время искусственный интеллект (далее - ИИ) используется повсеместно. Алгоритмами ИИ начиняют почти все гаджеты: от кофеварки до автомобиля. Такое повсеместное использование вышеупомянутых алгоритмов - открывает новые горизонты в широте функционала привычных вещей. Гриль запоминает какая прожарка Вам нравится по вторникам, автомобиль приучается к стилю Вашего вождения, а телефон предлагает рестораны к посещению. Поистине, наша действительность становится похожа на образы будущего у писателей фантастов XX века. В реальном мире тоже есть примеры. 18 марта 2018 года, один из самоуправляемых автомобилей Uber (в штате Аризона) насмерть сбил 49-ти летнюю жительницу города Темпл. Это первый и, к счастью, единственный летальный кейс с участием пешехода и автопилотируемых машин. Возникает очевидный вопрос: кто виноват? Пешеход? Водитель? Или инженеры, разработавшие автопилот? А, может, водители, которые помогли собрать датасет для обучения автопилота? Производители авто с функциями автопилотирования застраховались от ответственности в данных случаях. Дело в том, что водитель при включенном автопилоте всегда должен держать руки на руле или положить их на руль при первом требовании авто. Таким образом, водитель может и должен среагировать при чрезвычайной ситуации на дороге.

Есть и другой пример: в Китае уже более 3‑x миллионов судебных процессов было урегулировано при помощи автоматизированного сервиса с использованием искусственного интеллекта. В основном это гражданские иски по правообладанию. Громких кейсов-ошибок пока не было. Однако система позиционируется как универсальный помощник судьи. То есть «руки все еще должны быть на руле». Ведь суд работает с правом человека.

Здесь возникает вопрос приватности данных. А именно - сохранение права человека на его частную жизнь (ст. 8 — Конвенция о защите прав человека и основных свобод). Использование ИИ, как известно, требует больших данных (реальных данных). Читатель может возразить и заявить, что данные можно обезличить и анонимизировать. И, конечно, будет прав. Чтобы более глубоко погрузиться в этот вопрос – предлагается провести мысленный эксперимент. Предположим, что есть некая система анализирующая благосостояние клиента по его внешнему виду. Такую систему установили в одну из Ваших местных аптек. В этой аптеке уже есть алгоритм, составляющий Вам рекомендации по препаратам, в том числе, учитывающий вышеупомянутую систему. Все покупатели, заходящие в аптеку, берут талоны и вводят свои симптомы. В очереди двое мужчин с жалобами на кашель. И им предлагаются разные средства.

Одному стоимостью - 1500 рублей, другому – 350 рублей. А теперь, читатель, предлагается подвести итог эксперимента. Были ли нарушены права человека на конфиденциальность? Формально – нет. Никто из мужчин не назвал своих имен или других данных. Но, фактически, система понимала материальный статус каждого из них. Отсюда возникает дилемма метаданных.

Метаданные — это субканальная информация об используемых данных.
Иными словами - информация об информации.

Примером метаданных файла может быть: его размер, формат и т.д. Предположим, что для обучения вышеупомянутого ИИ была использована выборка в несколько сотен тысяч людей. Они подписали соглашения о своем согласии на обработку их персональных и мета-данных. Получившийся датасет был строго конфиденциален и не распространялся. Однако аптека, заплатившая за этот черный ящик, рассказывающий о доходах человека, не нарушила прав своих покупателей. Компания, занимавшаяся разработкой персональных данных тоже не нарушила прав человека. Но по факту права нарушены – любой желающий может заплатить и купить «определятор зарплаты». В связи с этим, Комитет министров Совета Европы (СЕ) в сентябре этого года учредил Специальный комитет по искусственному интеллекту (CAHAI). Основная задача группы экспертов — разработка правовой базы для проектирования и применения искусственного интеллекта на основе стандартов организации в области прав человека, демократии и верховенства права.

Подводя итоги:

Всегда есть место риску ошибки. Будь то экспертные алгоритмы, в которых эксперт может не предугадать тот или иной кейс, или алгоритмы AI – где результат, по сути, аппроксимация некой функции. Вопрос в том, что в случае экспертных алгоритмов – их создатель определяет результат работы, а в случае ИИ – только предполагает его. Это порождает риск просчетов. Именно поэтому, создавая «черный ящик», за человеком, всегда должно оставаться последнее слово. Если, конечно, Вы не готовы игнорировать ошибки модели. Аналогично при проведении аудиторской проверки или формировании предложения клиенту, используя ИИ – необходимо соотнести риск ошибки Вашей модели и степень ее контроля. Если вероятность ошибки крайне мала – Вы можете просто осуществлять пассивный контроль (как в случае с автопилотом). В противном случае – нужен детальный контроль результатов, как в законодательных аппаратах Китая.

Сохранение приватности (privacy) должно регулироваться законом. Однако прогресс идет на опережение. Это может привести к ситуации, когда владельцы таких систем будут бесконтрольно использовать полученную информацию. Для них это может породить не только финансовые риски, связанные с постоянной адаптацией моделей под текущее законодательство, но и репутационные, связанные с информации клиентов.

{ "author_name": "Elena Kustova", "author_type": "self", "tags": [], "comments": 2, "likes": 1, "favorites": 1, "is_advertisement": false, "subsite_label": "newtechaudit", "id": 107809, "is_wide": false, "is_ugc": true, "date": "Wed, 19 Feb 2020 07:38:46 +0300", "is_special": false }
0
2 комментария
Популярные
По порядку
0

Есть даже системы ИИ, способные проверять тексты на орфографические и пунктуационные ошибки. После такой проверки читать вашу статью было бы намного приятнее. 

Ответить
0

Благодарю за замечание! 

Ответить

Прямой эфир