Марк Цукерберг назвал «безответственными» предупреждения Элона Маска об угрозах для человечества из-за развития ИИ Статьи редакции
Глава Facebook Марк Цукерберг назвал предупреждения Элона Маска и других предпринимателей Кремниевой долины об угрозе развития ИИ для человечества «довольно безответственными». Об этом он заявил во время видеотрансляции в соцсети, передаёт CNBC.
Цукерберг отвечал на вопрос одного из пользователей, звучавший следующим образом: «Недавно я смотрел интервью с Элоном Маском, где он рассказал о большом страхе перед ИИ в будущем. Что вы думаете об искусственном интеллекте и как, по-вашему, он может повлиять на мир?».
Глава Facebook назвал «довольно безответственными» сценарии конца света по причине развития искусственного интеллекта. Цукерберг уверен, что в ближайшие пять-десять лет ИИ сделает жизнь людей только лучше.
В середине июля глава Tesla и SpaceX Элон Маск выступал перед губернаторами США и назвал искусственный интеллект «основной угрозой» для человечества. Предприниматель предупредил, что развитие технологий ИИ могут стать причиной безработицы и даже войн.
Маск призвал разработать меры контроля развития ИИ. По его словам, это необходимо сделать, пока не стало «слишком поздно».
В 2016 году Цукерберг говорил, что технологии искусственного интеллекта не могут выйти из-под контроля, поскольку «это всего лишь» математика, статистика, распознавание образов и большие объёмы данных. По его мнению, в будущем системы ИИ получат наибольшее распространение в двух областях: распознавание образов и обучение.
Обновлено 25 июля. Элон Маск назвал «ограниченным» понимание Цукерберга о будущем искусственного интеллекта.
«Я говорил с Марком об этом. Его понимание темы ограничено», — написал Маск в своём Twitter-аккаунте в ответ на просьбу одного из пользователей прокомментировать заявление Цукерберга.
Когда главу Tesla попросили более подробно сформулировать свою позицию, он ответил, что сделает это очень скоро.
Маск имел ввиду, что уже на данном этапе разработчики нейросетей (не путать с ИИ), часто сталкиваются с тем, что не знают, что происходит "под капотом" + избежание ситуации, когда такой мощный инструмент как искусственный интеллект будет сконцентрирован в руках одного государства.
Переживать будет нужно, когда нейросети научаться сами себя конструировать и черпать информацию из внешнего мира. Вот здесь уже будет элемент непредсказуемости. Но пока до этого вычислительные мощности объективно не доросли.
Ну начерпает информации много, ну наделает еще нейросетей и что?)
Ближайшая аналогия — биологические и компьютерные вирусы или раковые клетки, которые изменяя себя обходят системы защиты.
Мы не можем сформулировать как нейросеть принимает решения, но контролируем те данные по которым она это делает. Это одновременно позволяет спать спокойно и ограничивает возможности и полезность ИНС.
В какой-то момент мы захотим, чтобы машина сама ходила в Интернет, задавала вопросы, обменивалась данными с другими машинами. Тем самым мы потеряем прямой контроль за входными данными.
Следующим этапом будет перестроение самой ИНС по мере использования — цифровая эволюция. Здесь мы отпускаем управление над структурой нейросети.
А теперь представьте себе алгоритм, в котором вы не контролируете ни структуру, ни входные данные. И у которого вычислительные мощности распределены по всему земному шару.
Вы только один момент не учитываете, что нейросеть может существовать отдельно от общей сети и работать с информацией по ограниченному доступу.
А там у себя пусть делает что хочет... все равно дальше своей сети и наших правил не выйдет.
Если смотреть на динамику развития IoT, когда у вас каждый холодильник подключен к интернету, то навряд ли станут изолировать умные ИНС. А в целом это вечный трейд-офф между полезностью, простотой и безопасностью. Про последнюю обычно начинают думать уже когда прозвучали раскаты грома.
Так то умные дома хотят изолировать в отдельную сеть, промышленные объекты в другую, банки тоже.
Просто будет еще одна сеть с полноценным ИИ и куча сетей с нейросетями без возможности эволюционировать.