Марк Цукерберг назвал «безответственными» предупреждения Элона Маска об угрозах для человечества из-за развития ИИ Статьи редакции

Глава Facebook Марк Цукерберг назвал предупреждения Элона Маска и других предпринимателей Кремниевой долины об угрозе развития ИИ для человечества «довольно безответственными». Об этом он заявил во время видеотрансляции в соцсети, передаёт CNBC.

Цукерберг отвечал на вопрос одного из пользователей, звучавший следующим образом: «Недавно я смотрел интервью с Элоном Маском, где он рассказал о большом страхе перед ИИ в будущем. Что вы думаете об искусственном интеллекте и как, по-вашему, он может повлиять на мир?».

Глава Facebook назвал «довольно безответственными» сценарии конца света по причине развития искусственного интеллекта. Цукерберг уверен, что в ближайшие пять-десять лет ИИ сделает жизнь людей только лучше.

Я просто не понимаю скептиков, пытающихся подстегнуть интерес к сценарию «судного дня». В какой-то степени это довольно безответственно с их стороны, это негатив.

— Марк Цукерберг, глава Facebook

В середине июля глава Tesla и SpaceX Элон Маск выступал перед губернаторами США и назвал искусственный интеллект «основной угрозой» для человечества. Предприниматель предупредил, что развитие технологий ИИ могут стать причиной безработицы и даже войн.

Маск призвал разработать меры контроля развития ИИ. По его словам, это необходимо сделать, пока не стало «слишком поздно».

В 2016 году Цукерберг говорил, что технологии искусственного интеллекта не могут выйти из-под контроля, поскольку «это всего лишь» математика, статистика, распознавание образов и большие объёмы данных. По его мнению, в будущем системы ИИ получат наибольшее распространение в двух областях: распознавание образов и обучение.

Обновлено 25 июля. Элон Маск назвал «ограниченным» понимание Цукерберга о будущем искусственного интеллекта.

«Я говорил с Марком об этом. Его понимание темы ограничено», — написал Маск в своём Twitter-аккаунте в ответ на просьбу одного из пользователей прокомментировать заявление Цукерберга.

Когда главу Tesla попросили более подробно сформулировать свою позицию, он ответил, что сделает это очень скоро.

0
104 комментария
Написать комментарий...
Unreal Person

Это не такая большая проблема. Просто не давайте железяке много философствовать на темы не касающихся работы, это практика успешно работает на людях сотни лет.

Ответить
Развернуть ветку
Данила Романов

На солдатах хорошо работает.

Самая страшная опасность для любого солдата, любой армии – это не враг, а безделье
Ответить
Развернуть ветку
Азат Сеитмухамедов

Кто ещё не слышал о Google A.I. Experiments, зайдите и просто поэкспериментируйте с этими самыми банальными возможностями ИИ от Google: https://aiexperiments.withgoogle.com/

(Рекомендую использовать ПК, для полного удобства работы приложений)

Эти экспериментальные приложения, как минимум, заставят вас задуматься о словах Маска. Если общедоступные экспериментальные приложения ИИ могут такие вещи, то что, интересно, они уже сегодня тестируют в своих секретных лабораториях?! А о недалёкой перспективе вообще страшно становится задуматься.

Нельзя просто игнорировать заявления такого технаря как Маск. Думаю он знает о чем говорит.

Ответить
Развернуть ветку
Александр Комин

Вы путаете машинное обучение (по ссылке) с ИИ. Это разные вещи. Могу порекомендовать https://habrahabr.ru/company/kaspersky/blog/315326/

Ответить
Развернуть ветку
Vitaly Markov
> Если общедоступные экспериментальные приложения ИИ могут такие вещи, то что, интересно, они уже сегодня тестируют в своих секретных лабораториях?! А о недалёкой перспективе вообще страшно становится задуматься.

Я одного не понял. Чего вы такого страшного по ссылке-то увидели?

Ответить
Развернуть ветку
1 комментарий
Serge Arsentiev

Мне кажется, Вы путаете предсказуемость людей (их шаблонное мышление, стереотипы), которую действительно можно запрограммировать, и настоящий ИИ.

Был неприличный ролик про Google AI Draw, где автор все время рисовал кхм ну заборную тематику ... а Google опознавал это как огурец, то банан, то мост, утку, автомобиль ...

Ответить
Развернуть ветку
3 комментария
Serge Arsentiev

Ну он как бы не технарь, он программист (в прошлом) и бизнесмен - прежде всего PR-щик.

Ответить
Развернуть ветку
1 комментарий
Андрей Николаевич

Надо им дебаты срочно устроить на первом или на дожде

Ответить
Развернуть ветку
Julia Kim

Теперь ясно, кто мыслит глобально, а кто использует ML только для подсказок в рекламе :^)

Ответить
Развернуть ветку
Фаиз Мангутов

Теперь ясно кто разрабатывает ИИ, а кто не успел забежать в вагон машиниста.

Ответить
Развернуть ветку
Vitaly Markov

И что же такого глобального сказал Маск? :)

Ответить
Развернуть ветку
Михаил Тевс

Кто мыслит реалистично, а кто раздувает хайп?

Ответить
Развернуть ветку
Миша Ландау

Нет ничего страшного, пока это просто математика, и она например делает маски в снэпчат. Другое дело когда у машины есть доступ к ресурсам города, например для обеспечения энергосбережения. Разумеется что в ближайшие 50 лет машины сами себя создавать не смогут. Но ёбнуть ракетой по Ирану из-за какого-то бага вполне возможно. ИИ это очень круто и необходимо для общества, но такие вещи необходимо контралировать. Хз зачем я эту тут пишу, всё-равно твой стартап не связан с ИИ же да?

Ответить
Развернуть ветку
Serge Arsentiev

1. "Спас мир от ядерной войны" в поиск - без ИИ, просто на глюке системы раннего предупреждения 26 сентября 1983 года могла бы начаться ядерная война. Должна была бы начаться, если бы 1 человек не потянул время (нарушив четкие и внятные инструкции).

2. Далее, между ИИ и "контролировать" есть несоответствие. В любом сложном программном продукте за год находят десятки (сотни) багов, их выявляют тестеры и пользователи, программисты правят старые багы и невольно вносят новые.

Если мы говорим о ИИ, который будет иметь доступ к своему исходному коду - то всё, приехали. А без этого доступа - он не совсем ИИ, так.

3. "ИИ это очень круто и необходимо для общества"
Обоснуйте?

Ответить
Развернуть ветку
6 комментариев
Денис Кулагин

Современные программные системы невероятно сложны и точно так же подвержены ошибкам. Поэтому совершенно непонятно зачем нужно дополнительное регулирование специально под AI.

Ответить
Развернуть ветку
2 комментария
Фаиз Мангутов

Это каким сумасшедшим надо быть, чтобы давать доступ ИИ к запуску ракеты.

Ответить
Развернуть ветку
2 комментария
Sergey Romanov

Все просто ребята. Цукерберг прав, и вот почему:
1) ИИ - искусственный интеллект. Свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека, эти свойства задаются человеком. Например был создан искусственный интеллект для конкретной задачи с конкретными свойствами игры в шахматы. Этот искусственный интеллект не сможет захватить мир и поработить человечество, по простой причине потому что ему не были заданны такие свойства, он умеет играть в шахматы и все.
2) У тех кто до сих пор не понял, может возникнуть вопрос, а что если сделать искусственный интеллект с заданными конкретными свойствами "Порабощения человечества" XD?? Ну тут все просто, такой искусственный интеллект сделать просто не возможно по не скольким причинам:
2.1 - Нужно создать саморазвивающийся искусственный интеллект во всех направления (которых будет более млрд). Играть в шахмоты это одно направление. Спускаться по ступенькам это второй направление итд..
2.2 - Даже сеть самых мощных квантовых компьютеров в мире просто не сможет справится с потоком данных, по этому в ближайшее 300-3000 лет врятли появится саморазвивающийся ИИ.
2.3 - У ИИ не существует сознания которое присуще человеку и другим живым существам. У ии заданы конкретные свойства, например для игры в шахматы.
Хоть я встал на сторону Цукерберга (или он на мою), все же маск поднимает тревогу не напрасно, и пытается привлечь правительство к этому вопросу для регулирования разработок в сфере ИИ. Плохие люди, могут изобрести ИИ в плохих целях, и вот это уже является проблемой. Сам же ИИ в ближайшие пару веков, угрозы точно не представляет.

Ответить
Развернуть ветку
Sergey Belikov

Мне кажется вы несколько переоцениваете сложность создания саморазвивающегося интеллекта. Достаточно чтобы он хоть как-то научился понимать текст и расти, а дальше в его распоряжении для обучения доступен весь интернет и он очень быстро поумнеет.

Ответить
Развернуть ветку
5 комментариев
Serge Arsentiev
для регулирования разработок в сфере ИИ

не-а, для гос. финансирования его организации
"В 2015 году Маск вместе с сооснователем PayPal Питером Тилем, партнёром Y Combinator Сэмом Альтманом и другими инвесторами основали некоммерческую организацию OpenAI для исследования безопасного развития технологии ИИ. Инвестиции в создание организации составили $1 млрд. "

Ответить
Развернуть ветку
Денис Кулагин

Марк дело говорит. Пока что железо еле тянет информацию с датчиков одного автомобиля в реальном времени, а они уже панику разводят.

Хотя сам же Маск говорил про те же беспилотные автомобили, что разработать технологию проще, чем из чиновников разрешение выбить.

Ответить
Развернуть ветку
Serge Arsentiev

Да на здоровье - при массовом производстве технология беспилотных автомобилей будет стоит $99 и полдня в сервисе (на любой автомобиль после 1996 года).

Вопрос в том, что _отвечать_ за последствия их внедрения Маск не хочет (и никто не захочет).

Ответить
Развернуть ветку
Денис Кулагин

То, в чём я принципиально согласен с Маском — это необходимость регулирования экономики связанной с AI. Чтобы не получилось так, что от развития технологий выигрывает небольшой круг людей, а менее удачливые стремительно беднеют, теряют работу и оказываются невостребованными в обществе.

Это — реальная проблема здесь и сейчас, особенно в Штатах.

Ответить
Развернуть ветку
Serge Arsentiev

1. Как предлагаете регулировать?
2. Деятельность Маска - проблема для аэрокосмической отрасли России (да и США, Китая и т.д.) и людей, работающей в ней.
3. Когда Маск, PR-щик новых технологий, привлекающий под них деньги инвесторов (основная работа последние годы), вдруг заделывается алармистом - нужно понимать почему ЕМУ это выгодно, и в чем ЕГО интерес
4. Его предыщущая деятельность не выявила особой социальной ответственности ...

Ответить
Развернуть ветку
6 комментариев
К М

Не согласен. Все, что регулируеься государством в итоге оказывается более нерациональным, убыточным и неэффективным для граждан.

Ответить
Развернуть ветку
7 комментариев
Gohnny Depp

Маск имел ввиду, что уже на данном этапе разработчики нейросетей​ (не путать с ИИ), часто сталкиваются с тем, что не знают, что происходит "под капотом" + избежание ситуации, когда такой мощный инструмент как искусственный интеллект будет сконцентрирован в руках одного государства.

Ответить
Развернуть ветку
Serge Arsentiev

Пожалуйста, уточните, почему Вы думаете что он именно это имел в виду.
По ссылке https://vc.ru/n/musk-ai-threat цитаты из выступления от завиральных до неадекватных:

1. "Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется нереалистичным"

2. "Глава SpaceX также признался, что его желание колонизировать Марс связано в том числе с угрозой порабощения Земли искусственным интеллектом. "

3. "развитие «глубокого ИИ», который окажется «умнее самого умного человека на планете», может привести к замене людей на искусственные алгоритмы."

И наконец амбула - "В 2015 году Маск вместе с сооснователем PayPal Питером Тилем, партнёром Y Combinator Сэмом Альтманом и другими инвесторами основали некоммерческую организацию OpenAI для исследования безопасного развития технологии ИИ. Инвестиции в создание организации составили $1 млрд."

Вот похоже что "изучать проблему" за чужие деньги, гораздо интереснее ему, чем развивать ИИ.

Ответить
Развернуть ветку
3 комментария
Денис Кулагин

Переживать будет нужно, когда нейросети научаться сами себя конструировать и черпать информацию из внешнего мира. Вот здесь уже будет элемент непредсказуемости. Но пока до этого вычислительные мощности объективно не доросли.

Ответить
Развернуть ветку
13 комментариев
Evgenii Krasnoperov

Еееее, даешь войну двух гениев!

Ответить
Развернуть ветку
Валерий Парыгин

Пиарятся, че им воевать...

Ответить
Развернуть ветку
1 комментарий
Alexander Matveev

В треде перепись тех, кто не понимает разницы между ИИ, который обучен делать узкую задачу (распознавание, синтез, и прочее) и ИИ который сам построит робота-убийцу и свергнет Человекаф.

Ответить
Развернуть ветку
Serge Arsentiev

А Вы поясните :)
Классическая страшилка на эту тему - "Косильщик Лужаек" - где на базе человеческого мозга делают мощный ИИ - неплохо раскрывает второй сценарий, развившийся именно из первого - задача-то была изначально узкая, не так ли?

Ответить
Развернуть ветку
1 комментарий
Sergey Belikov

Есть идея что решая какую-нибудь узкую задачу ИИ решит что человек этой задаче мешает. Топчет газоны, мусорит или еще что-то в этом духе. Почитайте на досуге:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Там про это было написано если я не путаю ничего.

Ответить
Развернуть ветку
2 комментария
Serge Arsentiev

... а также в Гугле мне пообещали, что роботы будут использовать Facebook, после захвата мира"

Ответить
Развернуть ветку
Adrian Azarov

Жду трансляции дебатов по данной теме ИИ (или OpenAI) Маска с ИИ Цукерберга

Ответить
Развернуть ветку
Yakov Filippenko

на сайте Навального

Ответить
Развернуть ветку
Миша Ландау

Просто сейчас ИИ на уровне: "Я как бы будильник поставлю, музыку включу, и еще твои слова загуглить могу". И мы на самом деле далеки от реализации настоящего ИИ. Когда я спокойно смогу сказать: "Нарисуй мне логотип/поправь баг в той библиотеки, что я вчера редактировал/введи капчу", после чего глянув код, там не было бы никакой заточенной работы под логотипы, скрипты/парсинг капч.

100% тест на ИИ (По Тьюрингу):

Вы в одной комнате, машина в другой.

Вы задаете вопрос и получаете ответ.

Если Вам не удалось понять кто отвечал на вопросы, человек или ИИ.

То поздравляю, вы из числа тех счастливчиков, которые разговаривали с искусственным интеллектом.

Ответить
Развернуть ветку
Serge Arsentiev

Тест Тьюринга от 1950 года не предусматривал компьютерной памяти, хранящей миллионы вариантов ответа.
Извините, я процитирую себя же из другой ветки про ИИ
"Тест Тьюринга ИИ может пройти в ближайшие годы, сойти за ребенка/тинейджера не требует много интеллекта (в ответах на вопросы, хватит пары тысяч вариантов ответа на любой вопрос).

Сойти в тесте за обидевшуюся женщину ИИ мог уже в 1950-м году - там требовалось просто молчать :)"

Ответить
Развернуть ветку
Андрей Иванов

У меня тоже такие мысли, каждый раз когда пересматриваю Матрицу, но потом через день отпускает. Маску его никто не показывал в последнее время?

Ответить
Развернуть ветку
Serge Arsentiev

Матрица предполагает, что человек может быть батарейкой - т.е. выделять больше энергии, чем поглощать.

При этом не сообщает, какой именно энергии.

Поэтому я больше верю Терминатору - причем вместо развалин и т.д., просто будут идеальные экосистемы и много животных, растений, и т.д., компьютерное управление климатом и полное отсутствие людей - все проблемы от них, их 7.5 миллиарда ни один вид крупных млекопитающих никогда не достигал такой численности ... (как мне кажется).

Ответить
Развернуть ветку
2 комментария
Борис Моренко

По теме

Ответить
Развернуть ветку
Александр Кац

ЕИ человека представляет для человека и его среды куда большую опасность и уже давно.

Ответить
Развернуть ветку
К М

Я думаю вы хотели сказать ЕГ человека ))

Ответить
Развернуть ветку
Ашот Габрелянов
Ответить
Развернуть ветку
belamov
Ответить
Развернуть ветку
Yan

Ждем ответа Маска!

Ответить
Развернуть ветку
Денис Демидов

ИИ это как паровой двигатель в свое время, технология которая переведет человечество на качественно новый уровень, вот только этот переход выдержат не все, многие страны исчезнут, волна безработицы поглотит планету, нею луддиты будут более массовым явлением чем раньше.
Государства всех стран должны сделать максимум для, насколько это возможно, плавного перехода в новую экономическую реальность.
Но кто будет сдерживать ИИ тот точно проиграет.

Ответить
Развернуть ветку
Темирлан Тургунбеков

Маск versus Цукерберг
Пошумим блеаааааааьь!

Ответить
Развернуть ветку
Olga Drushechkova

какие то абстрактные угрозы притянутые за уши, глобальное потепление, перенаселение и ужасная экология, и деятельность человека это уже здесь и сейчас.

Ответить
Развернуть ветку
Pavel Molchanov

Я за Маска

Ответить
Развернуть ветку
101 комментарий
Раскрывать всегда