Сингулярность рядом: кто сдерживает, а кто становится частью ИИ
Непредсказуемое поведение
- 1. Стивен Хокинг – ТЕХНОЛОГИЮ ИИ МОЖЕТ БЫТЬ НЕВОЗМОЖНО КОНТРОЛИРОВАТЬ
- Покойный Стивен Хокинг, всемирно известный астрофизик и автор книги «Краткая история времени», считал, что искусственный интеллект невозможно будет контролировать в долгосрочной перспективе, и что он может быстро превзойти человечество, если предоставить ему такую возможность:
«Можно представить, как такая технология перехитрит финансовые рынки, переизобретет исследователей-людей, переманит лидеров-людей и разработает оружие, которое мы даже не можем понять. В то время как краткосрочное воздействие ИИ зависит от того, кто его контролирует, долгосрочное воздействие зависит от того, можно ли его вообще контролировать ».
- 2. Илон Маск – РЕГУЛИРОВАНИЕ БУДЕТ ВАЖНЫМ
- Мало кто из технических специалистов так открыто говорил об опасностях ИИ, как основатель Tesla Inc. Илон Маск.Хотя его твиты об ИИ часто носят паникерский характер, предупреждения Маска столь же правдоподобны, сколь и сенсационны:
«Я думаю, мы должны быть очень осторожны с искусственным интеллектом. Если бы я мог предположить, что представляет для нас наибольшую экзистенциальную угрозу, то, вероятно, это она. Поэтому нам нужно быть очень осторожными с искусственным интеллектом.
- Маск считает, что надлежащий нормативный надзор будет иметь решающее значение для защиты будущего человечества, поскольку сети ИИ становятся все более сложными и на них возлагаются критически важные обязанности:
«Надо регулировать ИИ/робототехнику так же, как мы регулируем еду, лекарства, самолеты и автомобили. Общественные риски требуют общественного надзора. Избавление от FAA не сделает полеты безопаснее. Они существуют не просто так».
- Маск сравнил разрушительный потенциал сетей ИИ с рисками глобального ядерного конфликта, создаваемого Северной Кореей:
«Если вас не беспокоит безопасность ИИ, то вам стоит это сделать. Гораздо больший риск , чем в Северной Корее».
- Он также указал, что ИИ не обязательно должен быть злонамеренным, чтобы угрожать будущему человечества. Для Маска холодная, неизменная эффективность машинной логики так же опасна, как и любая зловещая научно-фантастическая конструкция:
«ИИ не обязательно должен быть злым, чтобы уничтожить человечество — если у ИИ есть цель, а человечество просто встанет у него на пути, он уничтожит человечество как нечто само собой разумеющееся, даже не задумываясь об этом, без обид».
- 3. Тим Урбан – МЫ НЕ МОЖЕМ РЕГУЛИРОВАТЬ ТЕХНОЛОГИИ, КОТОРЫЕ МЫ НЕ МОЖЕМ ПРЕДСКАЗАТЬ
- Тим Урбан, блогер и создатель Wait But Why , считает, что настоящая опасность ИИ и ИСИ заключается в том, что они изначально непознаваемы. По словам Урбана, мы просто не можем предсказать поведение ИИ:
«И поскольку мы только что установили, что пытаться понять мощь машины, которая всего на две ступени выше нас, — безнадежное занятие, давайте совершенно конкретно заявим раз и навсегда, что нет никакого способа узнать, что сделает ИСИ или каковы будут последствия для нас. Тот, кто притворяется, что это не так, не понимает, что такое сверхразум».
- 4. Движение МЫсинергиТЫ – ЕДИНСТВЕННОЕ РЕШЕНИЕ — НЕ СДЕРЖИВАТЬ, А СОЕДЕНИТЬСЯ.
- Сегодня практически все мыслители признают неизбежность слияния человека с ИИ. Под этим понимается не получение расширенного доступа к вычислительным мощностям ИИ как к инструменту, не важно, через облачную технологию или как-то иначе, а о полном слиянии. Как вы сейчас не отделяете от себя свой биологический компьютер (мозг), не считаете его инструментом или генератором вычислительных мощностей, а собой считаете, чувствуете себя с ним единым и неделимым целым, так и при слиянии с кремниевым мозгом (ИИ) будет такое же единство. Человек получит гигантские вычислительные мощности, память и способность обрабатывать объемы информации, превышающие сейчас воображение. Он будет более развит относительно себя прошлого, чем вы чувствуете себя относительно своего раннего детства.
«Мир разделился на две части: видящие проблему и не видящие. Видящие видят выход в установлении контроля над вычислительными мощностями ИИ. Расходятся по способу решения. Одни предлагают государствам договориться об ограничениях развития it-технологий и направить усилия на создании дружеского ИИ. Эту мысль высказывают такие фигуры как Киссинджер, Харари, Бостром и другие. Другие находят это пустой тратой сил и времени и предлагаю решение через соединение человека с ИИ. Эту мысль высказывают синергиты (от синергия, совмещение)».
- 5. Ник Билтон – ИИ БУДЕТ ИМЕТЬ НЕПРЕДНАМЕРЕННЫЕ ПОСЛЕДСТВИЯ
- Другие эксперты опасаются непреднамеренных результатов, которые ИИ получает, когда ему поручают все более критически важные задачи. Автор и журналист журнала Ник Билтон обеспокоен тем, что безжалостная машинная логика ИИ может непреднамеренно разрабатывать смертоносные «решения» для действительно неотложных социальных проблем:
«Но потрясения [ИИ] могут быстро обостриться и стать более страшными и даже катастрофическими. Представьте себе, как медицинский робот, изначально запрограммированный на избавление от рака, может прийти к выводу, что лучший способ искоренить рак — уничтожить людей , генетически предрасположенных к этой болезни».
- 6. Ник Бостром – МЫ НЕ ГОТОВЫ К ВЫЗОВАМ, КОТОРЫЕ СТАВИТ ИИ
- Научный исследователь и писатель Ник Бостром, автор книги «Суперинтеллект: пути, опасности, стратегии», разделяет убеждение Стивена Хокинга в том, что ИИ может быстро превзойти способность человечества его контролировать:
«Перед перспективой взрыва интеллекта мы, люди, подобны маленьким детям, играющим с бомбой . Таково несоответствие между силой нашей игрушки и незрелостью нашего поведения. Сверхразум — это вызов, к которому мы не готовы сейчас и не будем готовы еще долгое время. Мы не имеем ни малейшего представления о том, когда произойдет детонация, хотя, если мы поднесем устройство к уху, то услышим слабый тикающий звук. Для ребенка с невзорвавшейся бомбой в руках разумным было бы осторожно положить ее, быстро выйти из комнаты и связаться с ближайшим взрослым. Однако у нас здесь не один ребенок, а много, каждый из которых имеет доступ к независимому пусковому механизму. Шансы на то, что мы все найдем в себе смысл положить опасную штуку, кажутся почти ничтожными. Какой-нибудь маленький идиот обязательно нажмет кнопку поджигания, просто чтобы посмотреть, что произойдет».
Политическая нестабильность и война
- 7. Владимир Путин – ИИ ОКАЖЕТ ГЛУБОКОЕ ВЛИЯНИЕ НА МИРОВУЮ ПОЛИТИКУ
- Мировым лидерам не нужно многого, чтобы убеждать их в беспрецедентной способности ИИ изменять геополитический ландшафт. Например, президент России Владимир Путин твердо убежден, что овладение технологией ИИ окажет глубокое влияние на мировую политическую власть:
«Искусственный интеллект — это будущее не только России, но и всего человечества . Он несет колоссальные возможности, но и угрозы, которые трудно предсказать. Тот, кто станет лидером в этой сфере, станет властелином мира».
- 8. Джайшри Пандья – АВТОНОМНЫЕ СИСТЕМЫ ОРУЖИЯ МОГУТ НАРУШИТЬ ПОЛИТИЧЕСКУЮ СТАБИЛЬНОСТЬ
- Немногие приложения ИИ потенциально опасны, как автономные системы вооружения. Пока DARPA и другие оборонные агентства по всему миру изучают, как ИИ может сформировать ландшафт современной войны, некоторые эксперты глубоко обеспокоены перспективой передачи контроля над разрушительным оружием нейронным сетям.Джейшри Пандья, основатель и генеральный директор Risk Group LLC, является экспертом в области прорывных технологий. Она предупреждает о том, что системы вооружения, управляемые искусственным интеллектом, могут представлять собой экзистенциальную угрозу миру во всем мире:
«Технологическое развитие превратилось в крысиные бега. В борьбе за лидерство в гонке новых технологий и на поле битвы футуристической войны искусственный интеллект (ИИ) быстро становится центром глобальной игры сил . Как видно из наблюдений во многих странах, разработка автономных систем вооружения (АСВ) стремительно развивается, и этот рост использования искусственного интеллекта в военных целях, по-видимому, стал крайне дестабилизирующим явлением. Это ставит сложные проблемы безопасности не только перед лицами, принимающими решения в каждой стране, но и перед будущим человечества».
- 9. Бонни Дочерти – МАШИНЫ ДЛЯ УБИЙСТВ, КОТОРЫЕ ОТСУТСТВУЮТ НРАВСТВЕННОСТИ
- Некоторые рассматривают конкуренцию среди разработчиков программного обеспечения по созданию все более сложного искусственного интеллекта как состязание, пугающе напоминающее гонку ядерных вооружений времен Холодной войны.Бонни Дочерти, заместитель директора по вооруженным конфликтам и защите гражданского населения в Международной клинике прав человека при Гарвардской школе права, считает, что мы должны остановить разработку военного ИИ, пока не стало слишком поздно:
«Если этот тип технологий не остановить сейчас, это приведет к гонке вооружений. Если одно государство разработает его, то и другое государство разработает его. И машинам, которые лишены морали и смертоносны, нельзя давать возможность убивать».
- 10. Макс Эрик Тегмарк – ИНФОРМАЦИОННАЯ ВОЙНА БУДЕТ ЕЩЕ БОЛЬШЕ УГРОЗОЙ
- Технологические достижения, такие как автономные транспортные средства, представляют собой смену парадигмы в человеческом обществе. По словам Макса Эрика Тегмарка, физика и профессора Массачусетского технологического института, они также представляют собой слабости, которые мошенники смогут использовать в будущих войнах:
«Чем более автоматизированным становится общество и чем более мощным становится атакующий ИИ, тем более разрушительной может быть кибервойна. Если вы можете взломать и разбить беспилотные автомобили противника, беспилотные самолеты, ядерные реакторы, промышленных роботов, системы связи, финансовые системы и электросети, то вы можете эффективно разрушить его экономику и парализовать его оборону. А если вы также можете взломать некоторые из его систем вооружения, это еще лучше».
- 11. Джон Вольфстал – НАДЗОР ЗА ИИ ДОЛЖЕН БЫТЬ ОСОЗНАННЫМ, НАЦИОНАЛЬНЫМ ОБСУЖДЕНИЕМ
- Некоторые эксперты обеспокоены тем, что Пентагон и другие органы национальной обороны по всему миру слишком сосредоточены на разработке автономных систем оружия и недостаточно сосредоточены на их регулировании.Джон Вулфстал, внештатный научный сотрудник Проекта по управлению атомом в Гарвардском университете и бывший старший директор Совета национальной безопасности по контролю над вооружениями и нераспространению, считает, что необходимо сделать больше для удовлетворения срочной потребности в регулирующем надзоре за прорывными военными технологиями:
«Мы не сможем остановить появление в сети смертоносных вооруженных систем с искусственным интеллектом. Возможно, нам даже не стоит пытаться. Но мы должны быть более вдумчивыми, когда вступаем в эту среду. Риски невероятно высоки , и трудно представить себе проблему, более достойную информированного общенационального обсуждения, чем эта».
Этические и социальные последствия
- 12. Тереза Мэй – КАК ЗАСТАВИТЬ ИИ РАБОТАТЬ ДЛЯ ВСЕХ
- Премьер-министр Великобритании Тереза Мэй уже давно является ярым сторонником технологии ИИ. Она признает неотъемлемые риски в развитии этой технологии и подчеркивает, что правильное направление ее мощи имеет решающее значение для человечества:
«Британские компании… являются пионерами в использовании науки о данных и искусственного интеллекта для защиты компаний от отмывания денег, мошенничества, киберпреступности и терроризма. Во всех этих отношениях использование мощи технологий не только отвечает всем нашим интересам, но и является основополагающим фактором для прогресса человечества… На протяжении всей долгой истории — от изобретения электричества до появления фабричного производства — раз за разом первоначально тревожные инновации обеспечивали ранее немыслимые достижения, и мы нашли способ заставить эти изменения работать на всех наших людей. Теперь мы должны найти способ сделать это снова ».
- 13. Кеннет Стэнли – ИИ МОЖЕТ НАНЕСТИ ВРЕД УЖЕ УЯЗВИМЫМ ЛЮДЯМ
- Некоторые технологи беспокоятся, что ИИ будет использоваться для причинения вреда и угнетения людей. Кеннет Стэнли, старший инженер-менеджер и штатный научный сотрудник Uber AI Labs, является одним из таких людей.По мнению Стэнли, потенциал ИИ может представлять серьезную опасность для наиболее уязвимых членов общества, и эта проблема требует комплексного подхода к технологическому надзору:
«Я думаю, что самая очевидная проблема — это когда ИИ используется для причинения вреда людям. Есть много различных приложений, где вы можете себе представить, что это происходит. Мы должны быть очень осторожны, чтобы не позволить этой плохой стороне выйти наружу . [Выяснить, как заставить ИИ нести ответственность, — это] очень сложный вопрос; он имеет гораздо больше измерений, чем просто научное. Это означает, что все общество должно быть вовлечено в ответ на него».
- 14. Брайан Грин – ЭТИЧЕСКИЕ СООБРАЖЕНИЯ ИИ ИМЕЮТ ПЕРВООЧЕРЕДНОЕ ЗНАЧЕНИЕ
- По словам Брайана Грина, директора по технологической этике в Университете Санта-Клары, ИИ является важнейшим технологическим достижением с тех пор, как человечество освоило силу огня в каменном веке:
«Многие люди внезапно заинтересовались этикой ИИ, потому что поняли, что играют с огнем . И это самое важное со времен пожара».
- 15. Тесс Познер – ИИ далеко не идеален
- Тесс Познер, генеральный директор некоммерческой правозащитной группы AI4ALL, прекрасно осознает ограничения ИИ, особенно когда речь идет о сохранении существующих общественных предубеждений:
«Многие люди полагают, что искусственный интеллект... просто правильный и не имеет ошибок. Но мы знаем, что это неправда , потому что в последнее время было проведено много исследований этих примеров некорректности и предвзятости, которые усиливают или отражают наши существующие общественные предубеждения».
- 16. Эндрю Нг – ЭТИКА В ИИ – ЭТО БОЛЬШЕ, ЧЕМ «ДОБРО» ИЛИ «ЗЛО»
- Эндрю Нг, соучредитель Google Brain и бывший главный научный сотрудник Baidu, считает, что вопросы этики ИИ гораздо шире, чем отдельные варианты его использования:
«Из всего, что меня беспокоит в ИИ, вытеснение рабочих мест стоит на первом месте. Нам нужно убедиться, что богатство, которое мы создаем [с помощью ИИ], распределяется справедливо и равноправно. Для меня этика заключается не в том, чтобы убедиться, что ваш робот не станет злым . Это действительно продумать, какое общество мы строим? И убедиться, что оно справедливое, прозрачное и равноправное».
- 17. Сундар Пичаи – ТЕХНОЛОГИЧЕСКИЕ КОМПАНИИ ДОЛЖНЫ РАЗВИВАТЬ ИИ ОТВЕТСТВЕННО
- Будучи одной из крупнейших и наиболее влиятельных технологических компаний в мире, Google находится в уникальном положении, чтобы выступать за использование технологий искусственного интеллекта в повседневной жизни.Компания использует ИИ и нейронные сети уже несколько лет, но генеральный директор Сундар Пичаи считает, что все более сложные технологии ИИ необходимо использовать ответственно:
«Мы признаем, что такая мощная технология поднимает столь же важные вопросы о ее использовании. То, как разрабатывается и используется ИИ, будет иметь значительное влияние на общество на многие годы вперед . Как лидеры в области ИИ, мы чувствуем глубокую ответственность за то, чтобы сделать это правильно».
- 18. Сатья Наделла – ПРЕОДОЛЕНИЕ ЧЕЛОВЕЧЕСКОЙ ПРЕДВЗЯТОСТИ В ИИ ИМЕЕТ ЖИЗНЕННО ВАЖНОЕ ЗНАЧЕНИЕ
- Поскольку технология ИИ готова произвести революцию практически во всех отраслях и вертикалях, крайне важно, чтобы крупные технологические компании ответственно подходили к разработке технологии ИИ.Генеральный директор Microsoft Сатья Наделла считает, что ИИ и машинное обучение преобразуют все аспекты современной жизни:
«Цифровые технологии, проникая повсеместно, проникают во все места: каждая вещь, каждый человек, каждая сфера жизни в корне формируются цифровыми технологиями — это происходит в наших домах, на нашей работе, в наших местах развлечений. Удивительно думать о мире как о компьютере . Я думаю, это правильная метафора для нас, когда мы движемся вперед».
- Как и Пичаи и другие ведущие руководители в сфере технологий, Наделла предупреждает о риске внедрения человеческих предубеждений в технологию ИИ, что требует обдуманного и добросовестного подхода при разработке приложений ИИ:
«Технологические разработки не происходят просто так; они происходят из-за того, что мы, люди, делаем выбор в пользу дизайна, и этот выбор должен основываться на принципах и этике , и это лучший способ обеспечить будущее, которого мы все хотим».
- Наделла объясняет, что часть проблемы заключается в том, что человеческий язык — строительные блоки систем машинного обучения и сетей ИИ — изначально предвзят. Если исследователи не будут сознательно учитывать такие предвзятости, «нейтральная» технология станет глубоко ущербной:
«Одной из фундаментальных проблем ИИ, особенно в области понимания языка, является то, что модели, которые подхватывают язык, обучаются на основе корпуса человеческих данных. К сожалению, корпус человеческих данных полон предубеждений , поэтому вам нужно инвестировать в инструменты, которые позволят вам устранить предубеждения при моделировании языка».
- 19. Джоанна Брайсон – ИИ МОЖЕТ СПОСОБСТВОВАТЬ СОХРАНЕНИЮ НЕГАТИВНЫХ ПРЕДРАССУДКОВ
- Джоанна Брайсон, исследователь искусственного интеллекта из Университета Бата в Англии, в статье, опубликованной в The Guardian, вновь подчеркнула опасность неосознанной предвзятости, влияющей на ИИ:
«Люди ожидали, что ИИ будет беспристрастным; это просто неправильно . Если базовые данные отражают стереотипы или если вы обучаете ИИ на основе человеческой культуры, вы обнаружите эти вещи».
- 20. Дэвид Робинсон – ПРЕДВЗЯТЫЕ ДАННЫЕ ОЗНАЧАЮТ ПРЕДВЗЯТЫЕ РЕШЕНИЯ
- Многие специалисты в области технологий высказывались о потенциальных злоупотреблениях в отношении уязвимых категорий граждан со стороны систем на базе искусственного интеллекта, особенно в контексте системы уголовного правосудия.Дэвид Робинсон, управляющий директор и основатель аналитического центра Upturn, изучал потенциальное влияние ИИ на все: от предиктивной полиции до реформы залога. Он говорит, что системы ИИ, снабженные некорректными данными, неизбежно увековечат многие несправедливости, которые уже ощущаются в маргинализированных сообществах:
«Основная проблема в том, что эти прогнозы настолько хороши, насколько хороши данные, на которых они основаны. Люди в сообществах, где полиция строго контролируется, склонны попадать в неприятности. Эти системы склонны продолжать эти модели, полагаясь на эти предвзятые данные».
- 21. Джеффри Хинтон – ИИ МОЖЕТ УСУГУБИТЬ СОЦИАЛЬНУЮ НЕСПРАВЕДЛИВОСТЬ
- Всемирно известный ученый-компьютерщик и «крестный отец глубокого обучения» Джеффри Хинтон на протяжении многих лет открыто скептически относится к применению искусственного интеллекта.Вторя предостережениям Джоанны Брайсон и Дэвида Робинсона, Хинтон говорит о том, что технология ИИ может усугубить системное неравенство, что, по его мнению, является прямым результатом несовершенства многих социальных систем:
«Если вы можете значительно повысить производительность и производить больше благ для всех, это должно быть хорошо. Окажется ли это хорошим или нет, зависит исключительно от социальной системы и совсем не зависит от технологий. Люди смотрят на технологии так, как будто технологические достижения — это проблема. Проблема в социальных системах , и в том, будет ли у нас социальная система, которая будет делиться справедливо, или та, которая сосредоточит все улучшения на 1% и будет обращаться с остальными людьми как с грязью. Это не имеет никакого отношения к технологиям... Я надеюсь, что выгоды перевесят недостатки, но я не знаю, будут ли они, и это вопрос социальных систем, а не технологий».
- 22. Рана эль Калиуби – ИИ ДОЛЖЕН БЫТЬ ЭМОЦИОНАЛЬНО И СОЦИАЛЬНО ИНТЕЛЛЕКТУАЛЬНЫМ
- Рана эль Калиуби — соучредитель и генеральный директор компании Affectiva, которая разрабатывает технологию распознавания эмоций. Эль Калиуби считает, что социальный и эмоциональный интеллект не получили достаточного приоритета в области ИИ, что может нанести ущерб обществу:
«Сфера ИИ традиционно фокусировалась на вычислительном интеллекте, а не на социальном или эмоциональном интеллекте . Однако недостаток эмоционального интеллекта (EQ) может стать серьезным недостатком в обществе».
- 23. Даниэла Рус – ИИ НЕ ЯВЛЯЕТСЯ ПО СВОЕЙ ПРИРОДЕ «ХОРОШИМ» ИЛИ «ПЛОХИМ»
- ИИ может представлять собой беспрецедентные риски, но Даниэла Рус, робототехник и директор Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института, объясняет, что сам по себе ИИ нейтрален с моральной точки зрения:
«Критики часто ссылаются на сокращение рабочих мест как на причину, чтобы препятствовать дальнейшим исследованиям ИИ. Но история изобилует инновациями, которые были разрушительными: разве кто-то оглядывается назад и сожалеет, что Эли Уитни изобрел хлопкоочистительную машину, или Джеймс Уатт разработал паровой двигатель? Как и любая технология, ИИ по своей сути не является хорошим или плохим . Как любит говорить мой коллега из Массачусетского технологического института Макс Тегмарк: «Вопрос не в том, «за» вы или «против» ИИ — это все равно, что спрашивать наших предков, были ли они за или против огня».
- 24. Мартин Чорземпа – ВСЕОБЩЕЕ ИНТЕЛЛЕКТУАЛЬНОЕ НАБЛЮДЕНИЕ ИМЕЕТ СОЦИАЛЬНОЕ ВОЗДЕЙСТВИЕ
- Технология ИИ, вероятно, окажет глубокое влияние на правоохранительную деятельность. Многочисленные полицейские департаменты в Соединенных Штатах уже полагаются на автоматизированную технологию распознавания лиц и методы предиктивной полиции с использованием алгоритмов.Но, по словам Мартина Чорземпы, научного сотрудника Института международной экономики Петерсона в Вашингтоне, округ Колумбия, простая угроза автономного наблюдения является эффективным средством регулирования поведения общественности. Это имеет значительные последствия для общественного порядка в ближайшие десятилетия, особенно в таких сильно контролируемых странах, как Китай:
«Вся суть в том, что люди не знают, следят ли за ними, и эта неопределенность делает людей более послушными ».
Превосходя человеческий интеллект
- 25. Рэй Курцвейл – РАЗЛИЧИЕ МЕЖДУ ИИ И ЧЕЛОВЕЧЕСТВОМ УЖЕ СТИРАЕТСЯ
- Не все технологи видят в ИИ предвестника гибели. Футурист и автор Рэй Курцвейл рассматривает ИИ в первую очередь как инструмент для людей, позволяющий им расширить свой интеллект.Работа Курцвейла сосредоточена на том, что он называет «сингулярностью» — точке, в которой искусственный сверхинтеллект (ИСИ) превзойдет человеческий мозг и позволит людям жить вечно. Он говорит, что слияние человека и машины неизбежно:
«Мы сливаемся с этими небиологическими технологиями . Мы уже на этом пути. Я имею в виду, что этот маленький мобильный телефон, который я ношу на поясе, еще не находится внутри моего физического тела, но это произвольное различие. Это часть того, кем я являюсь, — не обязательно сам телефон, но подключение к облаку и всем ресурсам, к которым я могу получить доступ там».
- 26. Ян Лекун – ПРЕУВЕЛИЧЕНИЕ ОПАСНОСТИ ВОЗМОЖНОСТЕЙ ИИ
- По мнению Яна Лекуна, главного специалиста по искусственному интеллекту в Facebook AI Research, самая большая проблема с ИИ заключается не в его потенциально вредоносных приложениях, а в глубоком непонимании самой технологии:
«Мы очень далеки от того, чтобы иметь машины, которые могут изучать самые элементарные вещи о мире так, как это делают люди и животные. Да, в определенных областях машины обладают сверхчеловеческой производительностью, но с точки зрения общего интеллекта мы даже близко не приближаемся к крысе. Это делает многие вопросы, которые люди себе задают, преждевременными. Это не значит, что мы не должны думать о них, но в ближайшей или даже среднесрочной перспективе опасности нет. В отделе ИИ есть реальные опасности, реальные риски, но это не сценарии Терминатора ».
- 27. Клайв Синклер – ЧЕЛОВЕЧЕСТВО МОЖЕТ НЕ ПЕРЕЖИТЬ ИИ
- Мир вычислительной техники значительно продвинулся с тех пор, как британский технолог сэр Клайв Синклер создал Sinclair ZX80 — первый массовый домашний компьютер, поступивший в продажу в Великобритании в 1980 году.Уже тогда Синклер осознавал потенциал компьютеров, способных превзойти человеческий интеллект, и утверждал, что компьютеры положат конец « длительной монополии » углеродных форм жизни на Земле.Синклер считает, что доминирование ИИ неизбежно, но не в ближайшем будущем:
«Как только вы начнете создавать машины, которые будут соперничать с людьми и превосходить их по интеллекту, нам будет очень трудно выжить ... Но это не неизбежно, и я не могу просто так беспокоиться об этом».
- 28. Карл Фредерик Раушер – ИИ МОЖЕТ ДЕЙСТВОВАТЬ НЕ В ЛУЧШИХ ИНТЕРЕСАХ ЧЕЛОВЕЧЕСТВА.
- Технология искусственного интеллекта стремительно развивается в последние годы, и Карл Фредерик Раушер, управляющий директор и генеральный директор Комиссии по глобальной информационной инфраструктуре (GIIC), опасается, что наше доминирование над машинами будет недолгим:
«ИИ может конкурировать с нашим мозгом, а роботы могут конкурировать с нашими телами, и во многих случаях уже могут легко нас победить . И чем больше времени пройдет, тем лучше будут становиться эти новые технологии, в то время как наши собственные возможности, как ожидается, останутся более или менее прежними».
- Раушер также размышлял о потенциально зловещих применениях ИИ и о том, какое влияние компании, использующие его, могут оказывать на общественность:
«Опасения относительно того, как влиятельные компании могут выбирать разработку новых технологий, оправданы, учитывая, что их основной интерес заключается в максимизации прибыли для своих акционеров. Многие из них процветают на не столь прозрачных бизнес-моделях, которые собирают, а затем используют данные, связанные с пользователями. Крупные технологические компании будущего будут использовать интеллект (через ИИ) и контроль (через роботов), связанные с жизнью их пользователей. В таком мире сторонние организации могут знать о нас больше, чем мы знаем о себе. Решения будут приниматься от нашего имени и все чаще без нашего ведома, и эти решения не обязательно будут в наших интересах».
- 29. Клод Шеннон – ПРИВЕТСТВУЕМ НАШИХ РОБОТОВ-ПОВЕЛИТЕЛЕЙ
- Покойный американский математик Клод Шеннон известен как «отец теории информации», опубликовавший знаменательную работу по этой теме в 1948 году. Взгляд Шеннона на угасающую эпоху доминирования человечества и неизбежное возвышение машин был одновременно циничным и мрачно-комичным:
«Я представляю себе время, когда мы будем для роботов тем же, чем собаки для людей . И я болею за машины».
- 30. Джеймс Баррат – ИИ НЕИЗБЕЖНО БУДЕТ ПРАВИТЬ МИРОМ
- Возможно, в силу своей роли летописцев и рассказчиков, авторам часто приходится предупреждать нас о потенциальных опасностях захватывающих новых технологий. Джеймс Баррат, автор книги «Наше последнее изобретение: искусственный интеллект и конец человеческой эры», опасается, что человечество обречено на жизнь в рабстве в свете значительно превосходящего интеллекта ИИ:
«Мы, люди, управляем будущим не потому, что мы самые сильные существа на планете или самые быстрые, а потому, что мы самые умные. Поэтому, когда на планете появляется что-то умнее нас, оно будет править нами на планете ».
- 31. Хизер Рофф – ИИ МОЖЕТ ИСПОЛЬЗОВАТЬСЯ ДЛЯ МАНИПУЛИРОВАНИЯ ПОТРЕБИТЕЛЯМИ
- Все более персонализированные вспомогательные технологии, которые обещает ИИ, способны сделать любой процесс — от покупок до голосования — более личным и увлекательным.Однако Хизер Рофф, внештатный научный сотрудник программы «Внешняя политика» в Институте Брукингса, считает, что этими технологиями можно легко манипулировать, чтобы контролировать то, как люди совершают покупки, думают и живут:
«[Алгоритмы] будут манипулировать моими убеждениями о том, чего мне следует добиваться, что мне следует оставить в покое, стоит ли мне хотеть детей, выходить замуж, искать работу или просто купить эту сумочку. Это может быть очень опасно ».
- 32. Грей Скотт – ВОЗНИКНОВЕНИЕ ИИ НЕИЗБЕЖНО
- Футурист и «техно-философ» Грей Скотт не испытывает никаких проблем с представлением мира, в котором ИИ поднялся до доминирования над своими бывшими хозяевами. Для Скотта вопрос возвышения ИИ — это вопрос «когда», а не «если»:
«Как только ИИ обретет самосознание, когнитивная иерархия изменится навсегда, и мы, люди, перестанем быть доминирующим видом».
- 33. Нил Якобштейн - ЧЕЛОВЕЧЕСКАЯ ГЛУПОСТЬ — ЭТО ТО, ЧТО ДЕЛАЕТ ИИ ОПАСНЫМ
- Десятки экспертов высказывали обеспокоенность по поводу возможности унаследования ИИ наших недостатков и предубеждений, но мало кто высказался об этом столь лаконично, как Нил Якобштейн, заведующий кафедрой искусственного интеллекта и робототехники в Университете Сингулярности:
«Меня беспокоит не искусственный интеллект, а человеческая глупость ».
- 34. Нил Деграсс Тайсон – УМИЛОСТИВАНИЕ НАШИХ БУДУЩИХ ХОЗЯЕВ
- Астрофизик Нил Деграсс Тайсон никогда не избегает спорных мнений, особенно в социальных сетях. Однако, когда дело доходит до ИИ, Тайсон не рискует:
«Пора вести себя прилично, чтобы, когда искусственный интеллект станет нашим повелителем , у него не осталось причин истреблять нас всех».
- 35. Луис Дель Монте – ИИ ПРЕВЗОЙДЕТ СУММУ ЧЕЛОВЕЧЕСКОГО ИНТЕЛЛЕКТА
- Авторы научной фантастики давно увлечены искусственным интеллектом. Луис Дель Монте, физик и автор книги «Революция искусственного интеллекта», считает, что в ближайшие десятилетия ИИ станет настолько разумным, что люди даже не смогут полностью осознать его мощь:
«В период с 2040 по 2045 год мы разработаем машину или машины, которые не только будут эквивалентны человеческому разуму, но и будут более разумны, чем все человечество вместе взятое ».
- 36. Энтони Левандовски – ИИ ЗАСТАВИТ ЧЕЛОВЕЧЕСТВО УСТУПИТЬ СВОЕ ГОСПОДСТВО
- Инженер и предприниматель по автономным автомобилям Waymo Энтони Левандовски создал Way of the Future, первую церковь искусственного интеллекта. Он считает, что с взаимосвязанными системами сотовых телефонов, датчиков и центров обработки данных по всему миру ИИ в конечном итоге станет всезнающим и вездесущим, как божество:
« То, что будет создано, фактически будет богом . Это не бог в том смысле, что он создает молнии или вызывает ураганы. Но если есть что-то в миллиард раз умнее самого умного человека, как еще вы это назовете».
- Левандовски считает, что произойдет фундаментальная смена власти, и что лучшее, на что мы можем надеяться, — это мирный переход:
«В будущем, если что-то будет намного, намного умнее, произойдет переход того, кто на самом деле будет у власти. Мы хотим мирного, спокойного перехода контроля над планетой от людей к чему угодно. И чтобы это «что угодно» знало, кто помог ему выжить».
Изменение рабочей силы
- 37. Стив Возняк – ИИ МОЖЕТ ПОЛНОСТЬЮ ЗАМЕНИТЬ «МЕДЛЕННЫХ» ЛЮДЕЙ
- Как и многие из первых пионеров Кремниевой долины, соучредитель Apple Стив «Воз» Возняк выразил осторожный оптимизм относительно разрушительного потенциала ИИ. Но, по мнению Возняка, ИИ также представляет глубокую опасность для будущего человечества и может в конечном итоге полностью заменить людей:
«Как и предсказывали такие люди, как Стивен Хокинг и Илон Маск, я согласен, что будущее пугает и очень плохо для людей. Если мы построим эти устройства, которые будут заботиться обо всем за нас, в конечном итоге они будут думать быстрее нас и избавятся от медлительных людей , чтобы управлять компаниями более эффективно».
- 38. Кай-Фу Ли – ИИ КОРЕННО ИЗМЕНИТ РЫНОК ТРУДА
- Одной из распространенных тем в дискуссиях о потенциале ИИ является его значительное влияние на мировой рынок труда.Китайский венчурный капиталист и эксперт по искусственному интеллекту Кай-Фу Ли рассказал в интервью программе 60 Minutes о том, как искусственный интеллект может повлиять на рабочую силу будущего:
« ИИ будет все больше заменять повторяющиеся рабочие места . Не только для работы синих воротничков, но и для многих видов работы белых воротничков. В основном шоферы, водители грузовиков, все, кто зарабатывает на жизнь вождением, будут больше подвержены изменениям в течение 15–20 лет, и многие работы, которые кажутся немного сложными, повара, официанты, многие вещи станут автоматизированными, у нас будут автоматизированные магазины, автоматизированные рестораны, и в общей сложности через 15 лет это вытеснит около 40 процентов рабочих мест в мире».
- 39. Брайан Чески – АВТОМАТИЗАЦИЯ ИИ ПРЕДЛАГАЕТ ПРЕИМУЩЕСТВА ОДНИМ, РИСКИ ДРУГИМ
- Некоторые руководители считают, что ни одна работа не будет защищена от эффективности, которую обещает неутомимая роботизированная рабочая сила. Брайан Чески, соучредитель и генеральный директор Airbnb, выразил обеспокоенность по поводу негативного влияния роботизированной автоматизации на жизнь работающих людей:
«Меня беспокоит концепция автоматизации. Многие рабочие места будут автоматизированы; очень многое. Это принесет пользу людям, но также потребует огромных затрат . Я беспокоюсь, что «Сделано в Америке» превратится в «Сделано роботами в Америке».
- 40. Гэри Маркус – МИР БЕЗ ЧЕЛОВЕЧЕСКИХ РАБОТНИКОВ
- Ученый и писатель Гэри Маркус предполагает, что эффективность, которую обещает ИИ, не только вытеснит работников физического труда в таких отраслях, как производство, но в конечном итоге даже и творческих профессионалов:
«Но через столетие никого не будет волновать, сколько времени это заняло, только то, что произошло потом. Вероятно, машины будут умнее нас к концу столетия — не только в шахматах или вопросах викторины, но и практически во всем, от математики и инженерии до науки и медицины. Возможно, останется несколько рабочих мест для артистов, писателей и других творческих людей, но компьютеры в конечном итоге смогут программировать себя , усваивать огромные объемы новой информации и рассуждать способами, которые мы, основанные на углероде, можем только смутно себе представить. И они смогут делать это каждую секунду каждого дня, без сна и перерывов на кофе».
- 41. Сэм Альтман – ИИ ПРЕДЛАГАЕТ КРАТКОСРОЧНЫЕ ВЫГОДЫ, ДОЛГОСРОЧНЫЕ РИСКИ
- Президент Y Combinator и сопредседатель OpenAI Сэм Альтман считает, что ИИ действительно представляет серьезную угрозу будущему человечества, но в ближайшем будущем откроет множество интересных инвестиционных возможностей:
«ИИ, скорее всего, приведет к концу света, но в то же время будут существовать великие компании ».
- 42. Сэр Тим Бернерс-Ли – НЕЛЬЗЯ ДОВЕРЯТЬ, ЧТО ИИ БУДЕТ ДЕЙСТВОВАТЬ СПРАВЕДЛИВО
- Некоторые эксперты, включая создателя Всемирной паутины сэра Тима Бернерса-Ли, опасаются, что широкомасштабное внедрение ИИ в финансовом секторе может иметь катастрофические последствия, которые будет практически невозможно смягчить:
«Поэтому, когда ИИ начинает принимать решения, например, о том, кому брать ипотеку, это большое дело. Или какие компании приобретать, и когда ИИ начинает создавать свои собственные компании, создавать холдинговые компании, генерировать новые версии себя для управления этими компаниями. Таким образом, между этими компаниями ИИ происходит выживание наиболее приспособленных, пока вы не достигнете точки, в которой вы задаетесь вопросом, возможно ли понять, как обеспечить их честность, и как вы вообще объясните компьютеру, что это значит?»
- 43. Джеймс Винсент – НЕВИДИМЫЕ АЛГОРИТМЫ УЖЕ МЕНЯЮТ ОБЩЕСТВО
- По мнению некоторых экспертов, наиболее актуальной проблемой, связанной с ИИ, является то, насколько широко эта технология используется в образовании, здравоохранении и системе уголовного правосудия способами, которые мы, возможно, не понимаем.Технологический писатель Джеймс Винсент считает, что, хотя мы должны «защитить будущее» ИИ от того, чтобы он не стал слишком мощным, растущая зависимость общества от алгоритмов, которые мы понимаем лишь смутно, столь же проблематична:
«Если компьютер может выполнять треть вашей работы, что происходит дальше? Вас обучают, чтобы брать на себя новые задачи, или ваш босс увольняет вас или некоторых ваших коллег? А что, если вместо этого вам просто сокращают зарплату? Есть ли у вас деньги на переподготовку, или вам придется терпеть удар по уровню жизни? Легко увидеть, что найти ответы на эти вопросы невероятно сложно. И это отражает трудности, с которыми мы сталкиваемся при понимании других сложных угроз со стороны искусственного интеллекта. Например, хотя нам не нужно беспокоиться о том, что сверхразумный ИИ выйдет из-под контроля в ближайшее время, нам нужно задуматься о том, как алгоритмы машинного обучения, используемые сегодня в здравоохранении, образовании и уголовном правосудии, выносят предвзятые суждения».