Марк Цукерберг назвал «безответственными» предупреждения Элона Маска об угрозах для человечества из-за развития ИИ Статьи редакции

Глава Facebook Марк Цукерберг назвал предупреждения Элона Маска и других предпринимателей Кремниевой долины об угрозе развития ИИ для человечества «довольно безответственными». Об этом он заявил во время видеотрансляции в соцсети, передаёт CNBC.

Цукерберг отвечал на вопрос одного из пользователей, звучавший следующим образом: «Недавно я смотрел интервью с Элоном Маском, где он рассказал о большом страхе перед ИИ в будущем. Что вы думаете об искусственном интеллекте и как, по-вашему, он может повлиять на мир?».

Глава Facebook назвал «довольно безответственными» сценарии конца света по причине развития искусственного интеллекта. Цукерберг уверен, что в ближайшие пять-десять лет ИИ сделает жизнь людей только лучше.

Я просто не понимаю скептиков, пытающихся подстегнуть интерес к сценарию «судного дня». В какой-то степени это довольно безответственно с их стороны, это негатив.

— Марк Цукерберг, глава Facebook

В середине июля глава Tesla и SpaceX Элон Маск выступал перед губернаторами США и назвал искусственный интеллект «основной угрозой» для человечества. Предприниматель предупредил, что развитие технологий ИИ могут стать причиной безработицы и даже войн.

Маск призвал разработать меры контроля развития ИИ. По его словам, это необходимо сделать, пока не стало «слишком поздно».

В 2016 году Цукерберг говорил, что технологии искусственного интеллекта не могут выйти из-под контроля, поскольку «это всего лишь» математика, статистика, распознавание образов и большие объёмы данных. По его мнению, в будущем системы ИИ получат наибольшее распространение в двух областях: распознавание образов и обучение.

Обновлено 25 июля. Элон Маск назвал «ограниченным» понимание Цукерберга о будущем искусственного интеллекта.

«Я говорил с Марком об этом. Его понимание темы ограничено», — написал Маск в своём Twitter-аккаунте в ответ на просьбу одного из пользователей прокомментировать заявление Цукерберга.

Когда главу Tesla попросили более подробно сформулировать свою позицию, он ответил, что сделает это очень скоро.

0
104 комментария
Написать комментарий...
Gohnny Depp

Маск имел ввиду, что уже на данном этапе разработчики нейросетей​ (не путать с ИИ), часто сталкиваются с тем, что не знают, что происходит "под капотом" + избежание ситуации, когда такой мощный инструмент как искусственный интеллект будет сконцентрирован в руках одного государства.

Ответить
Развернуть ветку
Денис Кулагин

Переживать будет нужно, когда нейросети научаться сами себя конструировать и черпать информацию из внешнего мира. Вот здесь уже будет элемент непредсказуемости. Но пока до этого вычислительные мощности объективно не доросли.

Ответить
Развернуть ветку
Alexander Matveev

Что имеете в виду под ИИ начнут конструировать сами себя?

Ответить
Развернуть ветку
Денис Кулагин

Я имею ввиду то, что сегодня признаки для обучения, конфигурацию сети и её гиперпараметры задаёт человек. Это — творческий компонент. НС только отвечает за поиск оптимальной комбинации весов для наиболее точного приближения.

Это та же математика, что и всегда, просто применённая к поиску по намного большему пространству вариантов. Но за границы своей конструкции алгоритм выйти не может. Поэтому любая ошибка будет скорее багом, чем злым умыслом машины.

Ответить
Развернуть ветку
Миша Ландау

Вы не много не так представляете ИИ, вы помните тест Тьюринга?

Ответить
Развернуть ветку
Денис Кулагин

Вы говорите про сильный ИИ, но его пока даже в проекте нет. И при всём уважении к Тьюрингу, его тест в качестве лакмусовой бумажки для определения наличия у машин сознания ни раз подвергался критике.

И как раз то, что тест в своём строгом варианте до сих пор не пройден, скорее говорит о том, что пока можно не слишком бояться восстания машин и спать спокойно.

Ответить
Развернуть ветку
101 комментарий
Раскрывать всегда