{"id":14279,"url":"\/distributions\/14279\/click?bit=1&hash=4408d97a995353c62a7353088166cda4ded361bf29df096e086ea0bbb9c1b2fc","title":"\u0427\u0442\u043e \u0432\u044b\u0431\u0435\u0440\u0435\u0442\u0435: \u0432\u044b\u0435\u0445\u0430\u0442\u044c \u043f\u043e\u0437\u0436\u0435 \u0438\u043b\u0438 \u0437\u0430\u0435\u0445\u0430\u0442\u044c \u0440\u0430\u043d\u044c\u0448\u0435?","buttonText":"","imageUuid":""}

Как дизайн может защитить нас от ИИ?

Перевод статьи с сайта UX Collective

Искусственный интеллект (ИИ) и его внутренняя работа настолько сложны, что мы мало что понимаем во внутренней работе алгоритмов. Искусственный интеллект остается загадкой, хотя и функционирует как «черный ящик». Для дизайнеров важно осознавать эти ограничения, и мы всегда должны предусматривать для пользователей возможность оспаривания в системах, управляемых ИИ.

В 2019 году известные ИТ-специалисты выступили против Apple, когда получили в 10 раз более высокие кредитные баллы, чем их партнеры (ред. - речь идет об Apple Card — кредитной карте, выпущенной Apple). В серии сообщений в Twitter Дэвид Хайнемайер Ханссон выступил против Apple, заявив, что программа была сексистской.

Хэнсон, который является создателем Ruby on Rails, подал те же финансовые документы, что и его жена, но, очевидно, алгоритм посчитал, что он заслужил кредитный лимит в 20 раз выше, чем у его жены.

Твит вызвал серию ответов, в том числе от соучредителя Apple Стива Возняка. Возняк объяснил, что то же самое произошло с ним и его партнером, и «исправить эту ошибку было очень тяжелым испытанием для человеческих возможностей».

Алгоритм, лежащий в основе Apple card, выпущенной Goldman Sachs, стал предметом официального расследования, проводимого Департаментом финансовых услуг Нью-Йорка.

Оспариваемость ИИ

Что выделяет эту историю, так это неспособность пользователей оспаривать решения, принимаемые искусственным интеллектом. Система, разработанная Apple и Goldman Sachs, не предлагала пользователям никакого выхода.

Оспариваемый искусственный интеллект, пожалуй, самый игнорируемый аспект пользовательского опыта, основанного на ИИ.

Неспособность пользователя повлиять на решения, принимаемые ИИ, может иметь далеко идущие последствия. Эта цитата Дэвида Коллингриджа объясняет это, пожалуй, лучше всего:

Когда изменения даются легко, необходимость в них невозможно предвидеть; когда необходимость изменений очевидна, изменения становятся дорогостоящими, сложными и отнимают много времени

Коллингридж, Д. (1980). Социальный контроль над технологиями. Фрэнсис Пинтер

Эти проблемы присущи искусственному интеллекту: машинное обучение использует алгоритмы для обучения и изменения с течением времени, но оно также имеет тенденцию улавливать искажения в своих наборах данных. Когда эти предубеждения затем отражаются в решениях, принимаемых ИИ, они могут иметь далеко идущие последствия, такие как дискриминация и изоляция.

Исследования в области оспариваемых систем ИИ

Исследовательская группа «Оспариваемый ИИ» в Делфтском техническом университете уделяет особое внимание дизайну оспариваемого ИИ. Их цель:

Чтобы системы искусственного интеллекта (ИИ) уважали права человека на автономию и достоинство, они должны допускать вмешательство человека во время разработки и после развертывания

Мы можем защитить пользователей от вредных решений, принимаемых системами, основанными на ИИ, с помощью дизайна, обеспечив возможность оспаривания решений этих систем. Эти системы всегда должны быть отзывчивыми на человеческое вмешательство на протяжении всего своего жизненного цикла.

Объяснимость — развивающаяся область в машинном обучении, исследователи активно ищут способы сделать модели менее похожими на черный ящик. Но найти эти решения не так-то просто. В то же время дизайн мог бы помочь нам в этом.

Такие проблемы, как справедливость, прозрачность и подотчетность, не могут быть решены с помощью технических инноваций. Они скорее должны быть спроектированы путем создания точек вмешательства человека. Вот тут-то и появляется дизайн.

Протестующий закрывает камеру на правительственном учреждении в Гонконге после протестов в 2019 году против китайской системы наблюдения, основанной на искусственном интеллекте. Крис Макграт — Getty Images

Оспариваемые системы ИИ — это сила

Если мы проектируем системы таким образом, чтобы решения ИИ не были окончательными, мы можем найти компромисс и улучшить оспариваемость этих систем. При разработке системы, управляемой ИИ, подумайте о способах интеграции поиска компромисса между пользователем и ИИ. Найдите консенсус как между пользователем, так и между системой.

Внедрение оспариваемого ИИ по сути является продолжением UX-исследования. Постоянный конфликт, который решается, создает поток пользовательских данных, которые могут постоянно улучшать саму систему. Реализация компромисса — это не слабость, а скорее сила.

Важно использовать эти пользовательские данные и проектировать вместе с пользователями, чтобы создать систему в рамках черного ящика ИИ, которая всегда приносит пользу пользователю. Этот непрерывный цикл генерации данных и проектирования более совершенных систем в долгосрочной перспективе создаст лучший продукт.

Как проектировать оспариваемые системы

Проектирование в системах точек вмешательства для оспаривания не должно быть сложным — это просто необходимо. Реализовать моменты, когда пользователь может возразить против решений, принимаемых системами, может быть так же просто, как заставить человека проверить выходные данные.

Во-первых, важно объяснять результаты. Должно быть ясно, как алгоритм выдает результат. Это может быть не всегда понятно, особенно из-за свойства «черного ящика» некоторых алгоритмов. Затем важно объяснять, как используются данные и чего может ожидать пользователь.

Важно указывать неправильные или менее достоверные ответы, меняя свой визуальный дизайн или макет. Не бойтесь сообщить пользователю, что у вас есть ответ.

ИИ может подойти для некоторых ситуаций и функционировать как расширение возможностей пользователей. Если пользователь использует ИИ, пусть он контролирует ситуацию. Пользователи всегда должны иметь возможность вмешаться в работу любой системы на основе ИИ или игнорировать ее.

Я уже писал о том, как проектировать системы, основанные на ИИ. Когда вы имеете дело с алгоритмами на базе искусственного интеллекта, полезно следовать этим общепринятым практикам.

Кейс: сканирующий автомобиль в Амстердаме

Для широкомасштабного наблюдения в Амстердаме используется армия сканирующих автомобилей. Сканирующие автомобили являются частью муниципальной программы по мониторингу чрезмерного использования парковочных мест по всему городу.

Сканируйщий автомобиль в Амстердаме, с веб-сайта AMS

Сканирующие автомобили используют камеру, установленную на крыше автомобиля и с помощью системы распознавания объектов выявляют нарушения и выдают платы за парковку. Автомобили автоматизируют процесс идентификации номерных знаков и проверки данных с помощью специального сканирующего оборудования и службы идентификации, основанной на ИИ.

В настоящее время сервис используется для более чем 150 000 уличных парковочных мест в Амстердаме. Поскольку видеонаблюдение полностью автоматизировано, город начал получать возмущенные звонки по поводу этой системы наблюдения.

Потеря автономии для граждан и проблемы, связанные с автоматизацией этих процессов, привели к новым разработкам вокруг сервиса. Вот почему муниципалитет решил создать более оспариваемую систему искусственного интеллекта. Вместе с экспертами в этой области муниципалитет открыл пользователям возможность оспаривать сервис, управляемый искусственным интеллектом. Лучше всего это объяснено на веб-сайте AMS Institute (ред. - Исследовательский институт в Амстердаме):

Вместе с UNSense мы пригласили представителей Амстердама и Роттердама, TADA и исследователей из Делфтского технического университета присоединиться к нам в 3-дневном спринте по разработке «сканирующего автомобиля будущего», который также учитывает человека и ценности справедливости в развитии технологий.

Во время этих сессий было рассмотрено несколько дизайн-стратегий. Среди прочего, участники исследовали, можно ли свести к минимуму сенсорику системы, можно ли сделать функции более понятными и какие функции можно было бы добавить, чтобы, возможно, принести пользу человеку — жителю Амстердама.

Последствия постановки такого вопроса, как: «Что, если бы вы могли ответить?» , открывают огромные возможности для дизайна, ориентированного на пользователя. Страшный монстр наблюдения с тех пор был переработан в более «оспариваемый» аналог, расширяя возможности граждан в этом процессе.

Возможность человеку увидеть то, что видит сканирующий автомобиль, с веб-сайта Contestable AI

Я считаю, что дизайн сканирующего автомобиля — прекрасный пример того, насколько оспариваемыми являются системы искусственного интеллекта. Теперь у города есть данные об использовании парковочных мест, и они могут соответствующим образом перепроектировать свой город. Сама система тоже улучшилась. Ее не страшно использовать, и ею нельзя злоупотреблять, пока существует возможность оспаривания. В выигрыше обе стороны. Как пользователи, так и владельцы продукта теперь могут пользоваться преимуществами системы, обеспечивая при этом автономию и свободу для всех.

Яспер Кенсе
UX-дизайнер и 3d-энтузиаст, рассказывающий об ИИ и его влиянии на творчество — cоздатель UX transcription tool: http://qanda.design /
0
3 комментария
За что нам это

В смысле мало что знаем об устройстве ИИ ?
Его что, бог придумал?

Ответить
Развернуть ветку
Вдова Кличко

да, типа того, ИИ это дар божий )))

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
0 комментариев
Раскрывать всегда