Почему не стоит считать ИИ партнером

Time разбирается, почему важно использовать правильную метафору для описания ИИ. «Как корабль назовешь, так он и поплывет». Эксперимент 2011 года показал, что метафоры формируют установки и убеждения людей или, по сути, формируют реальность восприятия. Если ИИ называть «хозяином», то отношения человека и алгоритма будут выстраиваться в парадигме «человек подчинен ИИ». Если ИИ считать партнером, то это создаст иллюзию равноправия человека и алгоритма. Самое оптимальное- считать ИИ помощником, у которого есть свои возможности и ограничения и работу которого необходимо постоянно контролировать.

В 2011 году группа исследователей поставила эксперимент. Они хотели изучить, как метафоры, описывающие преступление, могут повлиять на способы снизить количество преступлений. Участникам эксперимента выдавали один из двух отчетов: первый – о росте числа преступлений в городе, и в этом отчете преступления назывались «зверем, ищущим свою добычу» в городе. Второй отчет описывал преступление как «вирус, заражающий» город. Вся остальная информация в отчетах была идентичной. Выяснилось, что участники, читающие отчет о «звере, ищущем свою добычу» были склонны решить проблему преступлений с помощью правоохранительных органов (например, увеличить количество полицейских), а участники, читающие второй отчет, больше предлагали реформы (например, снизить уровень бедности).

В бизнесе лидеры часто используют метафоры, чтобы описывать новые идеи, создавать систему убеждений и вести людей к изменениям. Исследование о метафорах преступлений показывает, что выбор правильной метафоры имеет значение: установки и поведение людей определяются метафорами, которые используются в коммуникациях. Метафоры не просто нужны для усиления смысла происходящего, они также его формируют.

Искусственный интеллект - это просто метафора

Если взглянуть на популярность ИИ и в бизнесе, и в обычной жизни, то можно удивиться, как хорошо работает правило метафор. Телевидение как-то назвали «электронным сердцем», интернет- «информационной супермагистралью». Лидеры используют метафоры для ИИ, чтобы придать технологии смысл и ускорить ее принятие. «Искусственный интеллект» - это ведь тоже метафора, описывающая технический алгоритм и его приложения, но мы все же предпочитаем думать об этом всем с помощью метафоры.

Не все метафоры одинаково полезны. Грубо говоря, язык, которым мы описываем ИИ, раскладывает эту метафору на четыре группы: хозяин, партнер, помощник и инструмент. Чтобы выбрать правильный термин, стоит проанализировать тип взаимоотношений человека и технологии. Эти четыре метафоры подразумевают определенный тип отношений между человеком и ИИ, начиная от «ИИ под контролем» до «человек под контролем».

Почему не стоит считать ИИ партнером

ИИ- как инструмент

Метафора «ИИ как инструмент» - одна из четырех возможных, и она не придает ИИ антропоморфных* свойств. Изображая ИИ как девайс, который выполняет конкретную функцию, метафора отражает идею, что ИИ модели созданы человеком и управляются человеком.

* Антропоморфный - имеющий человеческий облик, сформированный по образу и подобию человека. Антропоморфизмом (очеловечиванием) называют (недопустимое) перенесение человеческих свойств на неодушевлённые предметы, на природу или на понятие Бога.

Несмотря на то, что изображении ИИ в таком не антропоморфном виде – это в какой-то степени ценность, но тут есть и риск. ИИ как инструмент означает, что ИИ находится полностью под контролем человека, и это не позволит осознать, какими сложными технологиями может быть ИИ. ИИ модели могут учиться на огромной скорости и разрабатывать логические суждения, причем их создатели такое даже и не вкладывали в модель. Метафора "инструмент" может вызвать у людей и компаний иллюзию полной уверенности в себе и сделать их слепыми к рискам ИИ, что может непреднамеренно привести к ущербу от ИИ.

ИИ как хозяин

Фильмы и книги пестрят другой метафорой: истории об ИИ как хозяине, который получает власть над человеком. Такой подход означает один из двух ответов: или сопротивление или подчинение. Сопротивление ведет к полному запрету технологии в экстремальном случае. Подчинение лишает человека власти и приводит к идее, что ничего нельзя сделать, чтобы предотвратить негативные последствия применения ИИ. Изображать ИИ как хозяина- непродуктивно.

ИИ как партнер

В последние месяцы множество статей призывает считать ИИ новым «со-работником» и восхваляют преимущества «коллаборации» и «партнерства» с ИИ. Эта метафора ИИ предполагает отношения равенства технологий и человека, который их использует, но это не совсем точное определение этих отношений: человек определяет цели и дизайн технологии ИИ. И это создает иерархию этих отношений.

ИИ как помощник

Эта метафора -самая популярная: от ИИ – «разговорный помощник» до ИИ –«второй пилот».

Эта метафора- одна из самых полезных. Многие установки и поведенческие характеристики, которые помогают выстроить конструктивные отношения с помощником, подходят для взаимодействия с ИИ:

Понимание сильных и слабых сторон. Когда помощники начинают работать, они приносят с собой полезный прошлый опыт. Они обучаются и растут в тех ролях, которые у них были раньше. Они прекрасно выполняют определенные задачи и могут отставать в других. Похожим образом происходит обучение ИИ моделей. Они проходят фазу сильных и слабых сторон. Они отражают ценности и предубеждения, которые были у команды, писавшей алгоритм, и у данных, на которых они обучались. Например, модель, обученная на более старых данных, не сможет помочь в вопросах, касающихся самых последних событий. Метафора помощника стимулирует тех, кто использует ИИ, задать вопросы: как работает модель? Что она делает хорошо? Какие недостатки?

Постановка целей и ограничений. Помощникам необходимо понять свои цели и знать, какие задачи в их зоне ответственности, а какие нет. Похожим образом, использование ИИ требует постановки четких целей моделям и установку явных ограничений их использования. Иногда это может быть очень полезно. Прогнозные модели склонны к предпочтениям (например, что потребитель, который рассматривает розовые товары, любит розовый цвет), но это может привести к нарушению приватности потребителя.

Контроль. Когда ясно заданы цели и ограничения, помощники хорошо выполняют свои задачи в своей зоне ответственности. Они даже сами могут определить свои задачи. Похожим образом, ИИ моделям необходимо отдавать выполнять те задачи, для которых они были созданы. Но полное отсутствие контроля неоправданно рискованно. Генеративный ИИ склонен к ошибочным выводам, которые выглядят как истина. Опытные пользователи знают, когда и как проверять результаты работы моделей. Как и в случае с отношениями с помощниками, ответственное использование ИИ требует вдумчивого контроля, постоянной оценки и осознанной коррекции работы ИИ.

Конечно, метафора помощника не совершенна. В общем-то, и нет совершенной метафоры для ИИ. Каждая метафора усиливает один из аспектов и нивелирует другой. По мере развития технологии развиваются и отношения человека и этой технологии. Сегодняшний помощник завтра может стать менеджером.

Использование метафор, отражающих концепцию «ИИ под контролем» или «человек под контролем»- полезная штука. Она напоминает нам, что доверие к ИИ должно быть взвешенным. Если не доверять ИИ совсем, то модель и не покажет прогресса. Слишком доверять – создается риск сверхполагания на ИИ, ошибок и ложных решений. Метафоры могут формировать реальность. Лидеры должны аккуратно использовать их, чтобы формировать то будущее организации, в которой они работают.

Начать дискуссию