Дарвиновский аргумент в пользу беспокойства по поводу ИИ

Существует много разных способов, которыми ИИ могут стать серьезной опасностью для человечества , и точная природа рисков до сих пор обсуждается, но представьте себе генерального директора, который нанимает помощника ИИ. Они начинают с простых низкоуровневых заданий, таких как составление электронных писем и предложение покупок. Он постепенно становится намного лучше в этих вещах, чем их сотрудники. Таким образом, ИИ «продвигается». Вместо того, чтобы составлять электронные письма, теперь он имеет полный контроль над почтовым ящиком. Вместо того, чтобы предлагать покупки, в конечном итоге ему разрешается получать доступ к банковским счетам и автоматически покупать вещи.

Дарвиновский аргумент в пользу беспокойства по поводу ИИ

Сначала генеральный директор внимательно следит за работой, но по мере того, как месяцы проходят без ошибок, ИИ получает меньше контроля и больше автономии во имя эффективности. Генеральному директору приходит в голову, что, поскольку ИИ так хорошо справляется с этими задачами, он должен брать на себя более широкий спектр более открытых целей: «Разработать следующую модель в линейке продуктов», «Спланировать новую маркетинговую кампанию» или «использовать недостатки безопасности в компьютерных системах конкурента». Компании, которые сопротивляются этим тенденциям, не имеют шансов. В конце концов, даже роль генерального директора в основном носит номинальный характер. Экономикой управляют автономные корпорации ИИ, и человечество слишком поздно осознает, что потеряло контроль.

Такая же конкурентная динамика будет применяться не только к компаниям, но и к странам. По мере увеличения автономии ИИ будет увеличиваться и их контроль над ключевыми решениями, влияющими на общество. Если это произойдет, наше будущее будет сильно зависеть от природы этих агентов ИИ.

Дарвиновский аргумент в пользу беспокойства по поводу ИИ

Нас это должно беспокоить по трем причинам. Во-первых, эффекты отбора затрудняют управление ИИ. В то время как исследователи ИИ когда-то говорили о «проектировании» ИИ, теперь они говорят об «управлении» ими. И даже наша способность управлять ускользает из нашего понимания, поскольку мы позволяем ИИ обучаться и все чаще действовать способами, которые даже их создатели не до конца понимают.

Во-вторых, эволюция склонна производить эгоистичное поведение. Аморальная конкуренция среди ИИ может отбирать нежелательные черты. ИИ, которые успешно приобретают влияние и обеспечивают экономическую ценность, будут преобладать, заменяя ИИ, которые действуют более узко и ограниченно, даже если это происходит за счет снижения ограждений и мер безопасности.

Дарвиновский аргумент в пользу беспокойства по поводу ИИ

Эгоизм не требует злого умысла или даже разума. Когда ИИ автоматизирует задачу и оставляет человека без работы, это эгоистичное поведение без всякого умысла. Если конкурентное давление продолжит стимулировать развитие ИИ, не стоит удивляться, если они тоже будут вести себя эгоистично.

Третья причина заключается в том, что эволюционное давление, вероятно, привьет ИИ поведение, способствующее самосохранению. Скептики в отношении рисков, связанных с ИИ, часто спрашивают: «А нельзя ли просто отключить ИИ?» Здесь возникает множество практических задач. ИИ может находиться под контролем другой нации или плохого актера. Или ИИ можно интегрировать в жизненно важную инфраструктуру, такую как электрические сети или Интернет. Когда они встроены в эти критически важные системы, стоимость их отключения может оказаться слишком высокой, чтобы мы могли ее принять, поскольку мы стали бы зависимыми от них. ИИ могут внедриться в наш мир таким образом, что мы не сможем легко исправить это. Но естественный отбор создает более фундаментальный барьер: мы будем выбирать против тех ИИ, которые легко отключить, и будем зависеть от тех ИИ, которые мы с меньшей вероятностью отключим.

Дарвиновский аргумент в пользу беспокойства по поводу ИИ

Это сильное экономическое и стратегическое давление, направленное на внедрение наиболее эффективных систем, означает, что люди заинтересованы в том, чтобы уступать все больше и больше власти системам ИИ, которые невозможно надежно контролировать, что ставит нас на путь вытеснения в качестве доминирующего вида на Земле. В нашем затруднительном положении нет простых и надежных решений.

Проблема, однако, в том, что конкуренция внутри стран и между ними противостоит любым разумным мерам безопасности. ИИ — это большой бизнес. В 2015 году общий объем корпоративных инвестиций в ИИ составил 12,7 млрд долларов. К 2021 году эта цифра выросла до 93,5 млрд долларов. По мере того, как ускоряется гонка за мощными системами искусственного интеллекта, корпорации и правительства все чаще стремятся прийти к финишу первыми. Нам нужно, чтобы исследования по безопасности ИИ развивались так же быстро, как и исследования по улучшению возможностей ИИ. Для этого не так много рыночных стимулов, поэтому правительства должны как можно скорее предложить надежное финансирование.

Дарвиновский аргумент в пользу беспокойства по поводу ИИ

Будущее человечества тесно переплетено с развитием ИИ. Поэтому тревожным является осознание того, что естественный отбор может иметь большее влияние на него, чем мы. Но на данный момент мы все еще в команде. Пора серьезно отнестись к этой угрозе. Как только мы передаем контроль, мы не вернем его обратно.

А если вам еще больше интересна тема ИИ, вы хотите знать больше и не пропускать новинки и обзоры, подпишитесь на канал в тг, мне будет приятно -

1414
5 комментариев

Передать кому-либо контроль над своей жизнью. Заманчиво

Да вообще ничего тут заманчивого нет

Статья заставляет задуматься, похоже мы не сможем избежать господство ИИ, только если не научимся контролировать его быстрее, чем он научится контролировать нас

Скорее он завоюет нас чем научатся контролировать

Похоже, ближайшее будущее обеспечит человечество битвой железных мозгов - ИИ- развитие против ИИ- кибербезопасность.
Вот только кто победит и поймем ли мы, кто победитель?:)
Проблема, скорее не в захвате контроля, а в том, что люди и сейчас ленятся напрягать натуральные извилины, это очень энергозатратно.
То есть тренд на "вкалывают роботы, счастлив человек".
Как на фоне все большей автоматизации не выключить людей из мозговой и творческой активности, чем они будут заниматься, например, на фоне базового дохода, как не допустить все более легкого манипулирования не привыкшей особо размышлять толпой?
Как ни крути, а шевелиться извилины большинства заставляла нужда в обеспечении основных жизненных благ и функций, а если ее не будет?