{"id":14270,"url":"\/distributions\/14270\/click?bit=1&hash=a51bb85a950ab21cdf691932d23b81e76bd428323f3fda8d1e62b0843a9e5699","title":"\u041b\u044b\u0436\u0438, \u043c\u0443\u0437\u044b\u043a\u0430 \u0438 \u0410\u043b\u044c\u0444\u0430-\u0411\u0430\u043d\u043a \u2014 \u043d\u0430 \u043e\u0434\u043d\u043e\u0439 \u0433\u043e\u0440\u0435","buttonText":"\u041d\u0430 \u043a\u0430\u043a\u043e\u0439?","imageUuid":"f84aced9-2f9d-5a50-9157-8e37d6ce1060"}

Марк Цукерберг назвал «безответственными» предупреждения Элона Маска об угрозах для человечества из-за развития ИИ Статьи редакции

Глава Facebook Марк Цукерберг назвал предупреждения Элона Маска и других предпринимателей Кремниевой долины об угрозе развития ИИ для человечества «довольно безответственными». Об этом он заявил во время видеотрансляции в соцсети, передаёт CNBC.

Цукерберг отвечал на вопрос одного из пользователей, звучавший следующим образом: «Недавно я смотрел интервью с Элоном Маском, где он рассказал о большом страхе перед ИИ в будущем. Что вы думаете об искусственном интеллекте и как, по-вашему, он может повлиять на мир?».

Глава Facebook назвал «довольно безответственными» сценарии конца света по причине развития искусственного интеллекта. Цукерберг уверен, что в ближайшие пять-десять лет ИИ сделает жизнь людей только лучше.

Я просто не понимаю скептиков, пытающихся подстегнуть интерес к сценарию «судного дня». В какой-то степени это довольно безответственно с их стороны, это негатив.

— Марк Цукерберг, глава Facebook

В середине июля глава Tesla и SpaceX Элон Маск выступал перед губернаторами США и назвал искусственный интеллект «основной угрозой» для человечества. Предприниматель предупредил, что развитие технологий ИИ могут стать причиной безработицы и даже войн.

Маск призвал разработать меры контроля развития ИИ. По его словам, это необходимо сделать, пока не стало «слишком поздно».

В 2016 году Цукерберг говорил, что технологии искусственного интеллекта не могут выйти из-под контроля, поскольку «это всего лишь» математика, статистика, распознавание образов и большие объёмы данных. По его мнению, в будущем системы ИИ получат наибольшее распространение в двух областях: распознавание образов и обучение.

Обновлено 25 июля. Элон Маск назвал «ограниченным» понимание Цукерберга о будущем искусственного интеллекта.

«Я говорил с Марком об этом. Его понимание темы ограничено», — написал Маск в своём Twitter-аккаунте в ответ на просьбу одного из пользователей прокомментировать заявление Цукерберга.

Когда главу Tesla попросили более подробно сформулировать свою позицию, он ответил, что сделает это очень скоро.

0
104 комментария
Написать комментарий...
Миша Ландау

Нет ничего страшного, пока это просто математика, и она например делает маски в снэпчат. Другое дело когда у машины есть доступ к ресурсам города, например для обеспечения энергосбережения. Разумеется что в ближайшие 50 лет машины сами себя создавать не смогут. Но ёбнуть ракетой по Ирану из-за какого-то бага вполне возможно. ИИ это очень круто и необходимо для общества, но такие вещи необходимо контралировать. Хз зачем я эту тут пишу, всё-равно твой стартап не связан с ИИ же да?

Ответить
Развернуть ветку
Serge Arsentiev

1. "Спас мир от ядерной войны" в поиск - без ИИ, просто на глюке системы раннего предупреждения 26 сентября 1983 года могла бы начаться ядерная война. Должна была бы начаться, если бы 1 человек не потянул время (нарушив четкие и внятные инструкции).

2. Далее, между ИИ и "контролировать" есть несоответствие. В любом сложном программном продукте за год находят десятки (сотни) багов, их выявляют тестеры и пользователи, программисты правят старые багы и невольно вносят новые.

Если мы говорим о ИИ, который будет иметь доступ к своему исходному коду - то всё, приехали. А без этого доступа - он не совсем ИИ, так.

3. "ИИ это очень круто и необходимо для общества"
Обоснуйте?

Ответить
Развернуть ветку
Миша Ландау

1. Читал статью, если Вы об этом: "из-за сильной вспышке на солнце полетела инфраструктура по, что спровоцировало непонятные циферки на экранах?"

2. ИИ - это та же нейросеть, только сложнее в 1000-чи раз. Могу в пример привести человека, есть плохой человек, есть хороший. У каждого своя идеология, взгляды и убеждения. Также и с умной машиной. Необходим приоритет на поступки и область видимости информации и её эксплуатации.

3. А теперь представьте себе огромный дата-центр. Десятки тысяч серверов. И петабайты обработанных данных в минимальный промежуток времени. В считанные дни новые открытия, лекарства, технологии и т.д.

На то что Вам понадобилось бы миллионы лет, дел бы ИИ за 15 минут.

Ответить
Развернуть ветку
Serge Arsentiev
На то что Вам понадобилось бы миллионы лет,
дел бы ИИ за 15 минут.

Нам это обещают с момента появления компьютеров, не так ли? Вычислительная мощь растет, логика (пока) не меняется.

Для большинства описанных Вами открытий недостаточно мат. моделей, требуются натурные эксперименты (физика и химия).

Если брать медицину, то в 99% случаев она работает по принципу "мы до конца не знаем как это происходит, но для этих анализов и симптомов есть 2-3 метода лечения, которые работают".

Т.е. речь идет прежде всего о "анализаторах", "датчиках", "сканировании" - методики сбора информации, например межклеточного взаимодействия, в организме.

Ответить
Развернуть ветку
Миша Ландау

Я никогда не видел ИИ, я не знаю как это должно работать. Я знаком с машинным обучением, но вот так взять и создать штуку, которая будет понимать твои цели, а не наборы команд. Это очень и очень круто. И Это даже возможно, но даже у самого крутого ИИ, будет существовать порог вхождения. Где либо он тебя перестанет понимать либо ты его. В моем понимании ИИ - это динамическая проработка углублённых алгоритмов.

Ответить
Развернуть ветку
Serge Arsentiev

Нашел сценку, представьте что в роли молодого - робот с ИИ :)

Ответить
Развернуть ветку
Сергей Матюшин

Вот что значит хорошо обученная нейросеть против плохо обученной))

Ответить
Развернуть ветку
Serge Arsentiev

У одного писателя есть образ идеального солдата - который бежит в атаку, и ИИ его комплекса (связь/броник/оружие/медпакет - все сразу), по мере необходимости впрыскивает в него стимуляторы, при ранении обезболивающее. При запредельных травмах (когда жить осталось 1-2 мин) - вкачивает вещества, позволяющие эффективно вести бой и испытывать радость до самой смерти (не чувствуя боли).

Это я к чему - проблемы 1 человека (при любой реальной ситуации) можно затушевать изменением гормонального баланса, и поддерживать человека в таком состоянии сколь угодно долго.

Проблемы групп людей - когда требуется что-то реально сделать, чтобы изменить ситуацию - зачастую просто выдуманы, сиюминутны, а их решения запаздывают - проблема исчезает сама собой.
С этим связана мудрость программеров: "Прежде чем бросаться что-то делать, подожди 2-3 дня, может все изменится". Ну и сценка Райкина была про железную дорогу, аналогичная.

Поэтому "понимать Ваши цели" невозможно, потому что люди декларируют одно, а хотят другого :)
Понимать цели группы - описал выше, еще сложнее.

Исследовать и искать что-то новое - многие открытия совершены случайно, и эта "рандомность" научного процесса, мне кажется, ИИ не может быть воспроизведена.

Так-то, дядечка Невзоров говорит почему-то, что дальнейшему развитию технического прогресса мешает ограниченность человеческих языков (или построенных на его логике компьютерных языках), а также иногда такие вроде некомпьютерные штуки - как мораль, ориентация во всех наших действиях на деторождение (передачу _своих_ генов дальше), конечность человеческой жизни и т.д.

Ответить
Развернуть ветку
101 комментарий
Раскрывать всегда