Нынешние дебаты о безопасном ИИ, который захватит мир, в корне не про то

Daron Acemoglu, профессор MIT: преувеличенное внимание к научно-фантастическим сценариям Судного дня ИИ отвлекает от более реальных угроз от этой технологии. Дискуссии о безопасном ИИ стали приоритетом для многих стран, однако, эти дискуссии касаются только рисков сильного антропоморфного ИИ. Профессор Acemoglu напоминает, что любая технология может быть опасна. Все зависит от того, кто ее контролирует. Автомобиль может использоваться во благо, а может стать оружием террориста, который въедет на машине в толпу людей. Попытки заложить в ИИ ценности и цели, согласованные с человеком, окажутся бессмысленными, если те, кто будет использовать технологии ИИ, будут действовать согласно своим целям и ценностям. Daron Acemoglu призывает обратить внимание на реальные угрозы ИИ: будет ли технология хорошей или плохой зависит от того, кто ее контролирует, какие у него цели и как регулируется эта технология.

В последние годы мы видим расцвет огромной индустрии, так как Китай, США, Великобритания и ЕС объявили безопасность ИИ главным приоритетом. Очевидно, что любая технология – от автомобиля и фармацевтики до оборудования и газонокосилки – должна быть безопасной (кстати, неплохо бы, чтобы соц.сети на заре своего возникновения также поверглись такому же пристальному вниманию).

Но просто поднять вопрос о безопасности недостаточно. В случае с ИИ дискуссии ушли в сторону «предотвращения катастрофических рисков, связанных с сильным ИИ (Artificial General Intelligence или AGI)», который, как предполагается, может превзойти человека в выполнении когнитивных задач. Речь идет о некой «согласованности»: покажет ли ИИ результат, который соответствует целям и ценностям создателей и пользователей. Эта тема приводит к обсуждению апокалиптических сценариев из научной фантастики, когда появляется сверхчеловеческий ИИ, который уничтожит человечество. Brian Christian, автор бестселлера «The Alignment Problem» фокусируется в основном на сильном ИИ. Одна из лидеров отрасли ИИ компания Anthropic решила создавать модели ИИ с «закрепленными» этическими правилами и ценностями.

Дело не в апокалиптической угрозе от сильного ИИ. Важно другое: тот, кто управляет ИИ, тот и отвечает, как используется технология: на пользу или во вред человеку

Но есть как минимум две причины, почему такой подход ошибочный. Во-первых, нынешние дебаты о безопасности ИИ не только создают иллюзию антропоморфичности* алгоритма, но и заставляют нас сосредоточиться не на том. Будет ли технология хорошей или плохой зависит от того, кто ее контролирует, какие у него цели и как регулируется эта технология.

*Антропоморфизм - уподобление человеку, на­деление человеческим обличьем и че­ловеческими качествами предметов и явлений неживой природы, раститель­ного и животного мира, воображае­мых существ и божеств.

Никакие исследования о безопасности автомобиля не смогли бы предотвратить его использование в качестве смертоносного оружия на митинге в Charlottesville, штат Вирджиния, в 2017 году. Если предположить, что ИИ системы имеют личные качества, то можно сделать вывод, что у нас один единственный выход- обеспечить правильные ценности и основания в ИИ. Но если такое предположение неверно, то предлагаемое решение не сработает.

Если сильный ИИ когда-нибудь появится, то тогда, действительно, будет важным, какие ценности в нем заложены и «согласованы» ли они с общечеловеческими, так как никаких ограничений для сильного ИИ не может быть создано. Но такое заявление ведет нас ко второй проблеме дискуссий о безопасном ИИ.

Главная угроза ИИ- это злоупотребление этой технологии человеком

Даже если мы идем к созданию сильного ИИ (что звучит совсем неправдоподобно), то самая очевидная угроза – это злоупотребление технологии ИИ человеком.

Представим, что через какое-то время (скажем в 2040 году) появится сильный ИИ. До этого времени (скажем T) ИИ системы не автономны. А теперь рассмотрим ситуацию за год до этого времени Т. К этому времени ИИ системы уже станут достаточно зрелыми и хочется подумать над вопросом: Кто их будет контролировать?

Ответ, разумеется, такой: человек. Или индивидуум или группа людей, правительство, консорциум, корпорация. Представим, что группа людей отвечает за ИИ в корпорации Х. Эта компания использует ИИ для любых своих целей. Если компания хочет уничтожить демократию или поработить людей, то она будет использовать ИИ для этого. Поэтому угроза, которую многие комментаторы приписывают сильному ИИ, возникает еще до его появления.

Фактически, ситуация может быть хуже. Корпорация Х может разрушить демократию и поработить людей, даже если таких целей у нее нет. Если цели Корпорации не согласуются с демократией (а это неизбежно), то демократия может пострадать из-за непреднамеренных действий Корпорации (как случилось с соц.сетями).

Например, неравенство, превышающее определенный порог, может угрожать демократии. Однако, этот факт не помешает Корпорации Х сделать все, чтобы обогатить себя и ее акционеров. Любые ограничения, встроенные в ИИ модели, для предотвращения злоупотребления, не будут иметь смысла, так как Корпорация Х сможет использовать технологию так, как пожелает.

Схожим образом если две компании- Корпорация Х и Корпорация Y – контролируют очень зрелые ИИ модели, то одна из них или обе вполне могут преследовать цели нанести ущерб социальной общности, демократии и свободе человека.

Даже если мы достигнем условий безопасного ИИ, а именно, соответствующие соглашения и ограничения для сильного ИИ, то мы не будем в безопасности. Получается, что нам нужны более сильные институты в технологических компаниях и более зрелые формы демократических и гражданских инициатив, чтобы правительство контролировало применение ИИ. Этот вызов совсем не про борьбу с ошибкой предубеждения в моделях ИИ или их согласованности с целями человека.

Хайп ИИ

Почему тогда мы так зациклены на потенциальном поведении антропоморфного ИИ? Частично из-за хайпа, который помогает техно индустрии привлекать деньги и кадры. Чем больше все мы говорим о том, что ждать от сверхчеловеческого ИИ, тем больше общественность будет думать, что появление сильного ИИ неизбежно. Индивидуальные и институциональные инвесторы будут вкладывать деньги в следующий хайп, а CEO техно компаний, которые вырастут на историях про апокалипсис ИИ, получат еще один бесплатный проход к рынку инвестиций. Стоит уже обратить внимание на более реальные угрозы.

Нынешние опасения по поводу рисков от ИИ отражают тренд представлять ИИ антропоморфной сущностью и вынуждают нас фокусироваться не на том, что действительно важно. С тех пор как технологии могут быть использованы во благо или во вред, самое главное – кто контролирует технологии, для каких целей их применяют и как они регулируются.

Ссылка на статью:

Начать дискуссию