Марк Цукерберг назвал «безответственными» предупреждения Элона Маска об угрозах для человечества из-за развития ИИ Статьи редакции
Глава Facebook Марк Цукерберг назвал предупреждения Элона Маска и других предпринимателей Кремниевой долины об угрозе развития ИИ для человечества «довольно безответственными». Об этом он заявил во время видеотрансляции в соцсети, передаёт CNBC.
Цукерберг отвечал на вопрос одного из пользователей, звучавший следующим образом: «Недавно я смотрел интервью с Элоном Маском, где он рассказал о большом страхе перед ИИ в будущем. Что вы думаете об искусственном интеллекте и как, по-вашему, он может повлиять на мир?».
Глава Facebook назвал «довольно безответственными» сценарии конца света по причине развития искусственного интеллекта. Цукерберг уверен, что в ближайшие пять-десять лет ИИ сделает жизнь людей только лучше.
В середине июля глава Tesla и SpaceX Элон Маск выступал перед губернаторами США и назвал искусственный интеллект «основной угрозой» для человечества. Предприниматель предупредил, что развитие технологий ИИ могут стать причиной безработицы и даже войн.
Маск призвал разработать меры контроля развития ИИ. По его словам, это необходимо сделать, пока не стало «слишком поздно».
В 2016 году Цукерберг говорил, что технологии искусственного интеллекта не могут выйти из-под контроля, поскольку «это всего лишь» математика, статистика, распознавание образов и большие объёмы данных. По его мнению, в будущем системы ИИ получат наибольшее распространение в двух областях: распознавание образов и обучение.
Обновлено 25 июля. Элон Маск назвал «ограниченным» понимание Цукерберга о будущем искусственного интеллекта.
«Я говорил с Марком об этом. Его понимание темы ограничено», — написал Маск в своём Twitter-аккаунте в ответ на просьбу одного из пользователей прокомментировать заявление Цукерберга.
Когда главу Tesla попросили более подробно сформулировать свою позицию, он ответил, что сделает это очень скоро.
Нет ничего страшного, пока это просто математика, и она например делает маски в снэпчат. Другое дело когда у машины есть доступ к ресурсам города, например для обеспечения энергосбережения. Разумеется что в ближайшие 50 лет машины сами себя создавать не смогут. Но ёбнуть ракетой по Ирану из-за какого-то бага вполне возможно. ИИ это очень круто и необходимо для общества, но такие вещи необходимо контралировать. Хз зачем я эту тут пишу, всё-равно твой стартап не связан с ИИ же да?
Это каким сумасшедшим надо быть, чтобы давать доступ ИИ к запуску ракеты.
Напугать? Доступ систем принятия решения к запуску межконтинентальных ракет был ещё в СССР. В том или ином виде эти системы есть у каждого ядерного государства.
https://ru.wikipedia.org/wiki/%D0%A1%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0_%C2%AB%D0%9F%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D1%82%D1%80%C2%BB
Ну вообще для начала отслеживания удара человек активирует систему и только потом идет автоматизация жестко запрограммированных действий.