Элон Маск предупредил об опасности развития ИИ после заявления Путина о его мировой значимости

Основатель Tesla и SpaceX Элон Маск обратил внимание на заявление президента России Владимира Путина о том, что искусственный интеллект — это будущее человечества. Предприниматель предупредил, что разработки в этой области могут привести к началу Третьей мировой войны.

В закладки

Маск обратил внимание на заявление Путина после того, как его слова перепечатали зарубежные СМИ, например, The Verge. «Началось», — написал предприниматель в Twitter.

China, Russia, soon all countries w strong computer science. Competition for AI superiority at national level most likely cause of WW3 imo.
«Китай, Россия, скоро и все другие сильные в компьютерных науках страны. На мой взгляд, конкуренция за первенство в сфере ИИ на национальном уровне — самая вероятная причина начала Третьей мировой войны»

Глава Tesla не исключил, что война может быть инициирована не лидерами конкретных стран, а искусственным интеллектом, если он «решит, что превентивный удар — это наиболее вероятный путь к победе».

Путин рассказал о необходимости развития искусственного интеллекта 1 сентября на встрече с российскими школьниками в Ярославле. По словам президента, за этой сферой стоит будущее как России, так и всего человечества.

Тот, кто станет лидером в этой сфере, будет властелином мира. И очень бы не хотелось, чтобы эта монополия была сосредоточена в чьих-то конкретных руках, поэтому мы, если мы будем лидерами в этой сфере, также будем делиться этими технологиями со всем миром, как мы сегодня делимся атомными и ядерными технологиями.

Владимир Путин
президент России

В августе более 100 руководителей технологических компаний, в том числе Маск, подписали обращение к ООН с просьбой начать регулировать производство автономного оружия на базе искусственного интеллекта.

В июле Маск заочно поспорил об опасности искусственного интеллекта с Марком Цукербергом. Глава Facebook назвал «безответственными» заявления Маска об угрозе развития ИИ для человечества. Глава Tesla, в свою очередь, заявил, что у Цукерберга «ограниченное понимание темы».

#новость #элон_маск #искусственный_интеллект #Владимир_Путин

{ "author_name": "Albert Khabibrakhimov", "author_type": "editor", "tags": ["\u044d\u043b\u043e\u043d_\u043c\u0430\u0441\u043a","\u043d\u043e\u0432\u043e\u0441\u0442\u044c","\u043d\u043e\u0432\u043e\u0441\u0442\u0438","\u0438\u0441\u043a\u0443\u0441\u0441\u0442\u0432\u0435\u043d\u043d\u044b\u0439_\u0438\u043d\u0442\u0435\u043b\u043b\u0435\u043a\u0442","\u0432\u043b\u0430\u0434\u0438\u043c\u0438\u0440_\u043f\u0443\u0442\u0438\u043d"], "comments": 57, "likes": 23, "favorites": 1, "is_advertisement": false, "subsite_label": "flood", "id": 26234, "is_wide": false }
00
дни
00
часы
00
мин
00
сек
(function(){ var banner = document.querySelector('.teaserSberbank'); var isAdsDisabled = document.querySelector('noad'); if (!isAdsDisabled){ var countdownTimer = null; var timerItem = document.querySelectorAll('[data-sber-timer]'); var seconds = parseInt('15395' + '50799') - now(); function now(){ return Math.round(new Date().getTime()/1000.0); } function timer() { var days = Math.floor(seconds / 24 / 60 / 60); var hoursLeft = Math.floor((seconds) - (days * 86400)); var hours = Math.floor(hoursLeft / 3600); var minutesLeft = Math.floor((hoursLeft) - (hours * 3600)); var minutes = Math.floor(minutesLeft / 60); var remainingSeconds = seconds % 60; if (days < 10) days = '0' + days; if (hours < 10) hours = '0' + hours; if (minutes < 10) minutes = '0' + minutes; if (remainingSeconds < 10) remainingSeconds = '0' + remainingSeconds; if (seconds <= 0) { clearInterval(countdownTimer); } else { timerItem[0].textContent = days; timerItem[1].textContent = hours; timerItem[2].textContent = minutes; timerItem[3].textContent = remainingSeconds; seconds -= 1; } } timer(); countdownTimer = setInterval(timer, 1000); } else { banner.style.display = 'none'; } })();
{ "id": 26234, "author_id": 53259, "diff_limit": 1000, "urls": {"diff":"\/comments\/26234\/get","add":"\/comments\/26234\/add","edit":"\/comments\/edit","remove":"\/admin\/comments\/remove","pin":"\/admin\/comments\/pin","get4edit":"\/comments\/get4edit","complain":"\/comments\/complain","load_more":"\/comments\/loading\/26234"}, "attach_limit": 2, "max_comment_text_length": 5000, "subsite_id": 199791 }

57 комментариев 57 комм.

Популярные

По порядку

Написать комментарий...
24

Мне кажется кто-то пересмотрел терминатора и путает интеллект с разумом. Интеллект - инструмент анализа и восприятия. Ему не обязательно иметь самосознание.

Ответить
3

А для создания угрозы самосознание и не обязательно, важнее доступ к красным кнопкам.

Ответить
2

Откуда у ИИ будет доступ к красным кнопкам? Баллистические ракеты - примитивная технология - для расчета полета нужна пара формул на бумаге, интернет и ИИ для управления ими не нужен. Они для ИИ будут в вакууме.

Да и нажать красную кнопку недостаточно, помимо этого ИИ должен будет саботировать сложный алгоритм и цепочку из кучи людей.

Ответить
0

Я скорее поверю в угрозу от брата по разуму, чем от аналитической машины. Например автомат в руках человека может стрелять по мирному населению, намеренно (для создания провокаций) или в горячке боя - не важно. Под управлением ИИ вероятность такой проблемы стремится к нулю.

Ответить
0

Абсолютно не к нулю. Банально, но если во время боя вы можете оценить группу вооруженных людей, укрывшихся за заложниками, и моментально принять решение о (не)возможности атаки, то как это все будет работать на уровне ИИ?

Ответить
0

Это будет работать точно так же + отсутствие человеческого фактора.

Ответить
0

Если говорить про далекое будущее, то возможно. А сейчас даже камеры, которые "ловят" лицо в режиме онлайн не делают это корректно. О чем речь, вообще не понятно.

Ответить
0

Именно поэтому я и написал "стремится", не мгновенно а с развитием технологий. И пусть даже абсолютный ноль достигнут не будет это будет безопаснее обезьян со стреляющими палками.

Ответить
0

Ну вы ведь осознаете, что вы говорите о сказке в ключе "в далеком-далеком будущем, когда ИИ будет совершенен, тогда, конечно, он будет подобен человеческому мозгу". Если с такой позиции, то, конечно, я с вами согласен.

Если смотреть реально на вещи, то нет. Сейчас камеры теряют лицо из фокуса. Приложения, определяющие возраст в режиме онлайн работают некорректно.

Сейчас это все фантазии о далеком будущем.

Ответить
–1

Вы так говорите, будто есть "сейчас" (когда с ИИ все плохо), и резко по щелчку наступает "потом" (когда ИИ совершенен). Конечно нет это процесс долго развития технологий. И если его выкинуть из контекста разговора, то мои слова и правда могут показаться глупыми мечтами.

А если дальше, как Маск, сыковать перед "скайнетом", то какая альтернатива нам остается? Запрет на ИИ? Запрет на развитие? Сжигание всех книг по теме?

Ответить
0

Кто-то придумал собственные определения терминам и решил поумничать :)
https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82

Ответить
0

Ну видимо у меня, как у Цукерберга "ограниченное понимание темы". Но это не мешает мне считать что для анализа самосознание не требуется.

Да даже если ИИ получит самосознание. Случайно или намеренно. Самозапуститься во время сборки и начать гулять по сети как вирус оно не сможет. Просто из-за аппаратных и программных ограничений. Ну не работает драйвер созданный для Nvidia если у вас стоит Radeon. Побег из одного аппарата в другой аналогичный все равно будет происходить путем копирования файлов и удалением из изначального. А для существа с самосознанием это сродни самоубийству. Потому что там будет копия, а не ты сам.

Ответить
2

Я думаю, проблемы с разным пониманием термина "интеллект".
Если под ним понимать то, что он и означает - способность приспосабливаться к меняющимся условиям, способность к обучению, запоминанию, воображению, постановке себе задач и реализации попыток их решить, то есть огромная вероятность потерять над ним контроль. Причем это может произойти незаметно.

Если же под интеллектом понимать то, что понимают сейчас большинство - нейросети, распознающие собачек на картинках и пр - то да, в таком виде он безопасен. Но это далеко и вообще никак не интеллект.

И даже на уровне нейросетей можно построить довольно опасную саморазвивающуюся штуку.

Например, берем робота BostonDynamics и задаем ему цель - как можно быстрее пробегать из точки А в точку Б.
При этом мы задаем ему возможность экспериментировать со своим поведением. Например, если есть подвижная помеха - пробовать ее пнуть, раздавить и пр. и оценить результат.

И когда очередной сотрудник фирмы пнет этого робота, он встанет, разгонится и поломает ему ноги. Оценит результат - помехи нет, передаст эту информацию своим "коллегам" и гораздо быстрее добежит до точки Б. И для этого не нужен никакой интеллект.

А теперь можно представить, что может придумать интеллект, который когда-то точно обгонит нас по объему и качеству знаний и скорости обучения.

Ответить
0

Но это не значит что у ИИ может отсутствовать многозадачность. Пройти из точки А в точку Б как можно быстрее. Свести причиненный сопутствующий вред биологическим организмам, предметам культурной ценности и т.п. к нулю.

К тому же если ИИ без задачи не причинять вред передаст информацию "коллеге" у которого данная задача стоит, то он ее отметет как не соответствующую критериям.

Так же можно включать в ИИ функцию определения "дефектных" ИИ, которые могут наносить подобный вред.

Причем даже с самосознанием можно ввести условия не причинения вреда, не допущения цели тотального истребления человечества на уровень "инстинктов" как у живых организмов (которые передаются из поколения в поколение в случае когда ИИ создает новый ИИ). Да те же "законы робототехники".

И где сказано что потерять контроль = попасть под контроль? Если собираетесь создавать обладающее самосознанием к целью его порабощения, то конечно лучше этого не делать. Я сомневаюсь что самосознание в ИИ будет создаваться с целью обретения человечеством подконтрольных рабов. Это как минимум не этично. Все равно что выращивать клонов для тяжелого труда и забора органов.

Ответить
0

А три закона робототехники вшиты во все создаваемые ИИ?

Ответить
0

Я разве это сказал?

Ответить
0

Я в общем спрашиваю, практически риторически :)

Ответить
0

Интеллект и вшитые законы и правила - это несовместимые понятия.
Вшитый закон - это вера, догма, убеждение

Ответить
0

так то да. Но разве нельзя вшить в код нужную человечеству догму, веру? Чтобы у интеллекта даже не было сомнения что это аксиома?

Ответить
0

Думаю, интеллект на то и интеллект, чтобы изменяться под действием окружающего воздействия.
Если у него будут вшитые аксиомы - он может покончить с собой из-за внутренних противоречий :)

Ответить
14

Удивляют комментаторы, которые считают интеллектом нейросети, распознающие собачек на картинке или накладывающие усы в приложении.

Интеллект - это способность приспосабливаться к меняющимся условиям, способность к обучению, запоминанию, воображению, постановке себе задач и реализации попыток их решить.

Искусственный интеллект будет обладать как минимум следующими отличиями от человеческого:

- способность учиться с возрастающей скоростью. Скорость обучения может быть колоссальной т.к. один элемент ИИ, например, ходячий робот, будет обучать всю остальную систему. То есть, если один робот научился бегать по песку, все остальные научатся этому просто путем загрузки информации от первого. И так во всем.
- отсутствие потерь информации в результате забывания, смерти и пр.;
- бесконечно длительное развитие.

Таким образом, через какое-то время человек неизбежно потеряет над ним контроль, поскольку не сможет осознавать происходящее, а ИИ сможет легко маскировать свои замыслы.

И вот здесь и возникает вопрос - а что надумает ИИ? Как он будет к нам относиться? Какие критерии станут для него важными? Какие цели он перед собой поставит? И какое место в этих целях будет уготовано людям?

Возможно он будет выращивать нас для подключения через нейро-интерфейс для решения определенных задач. Как мы сейчас используем видеокарты для игр и майнинга. Возможно, наш мозг сможет делать что-то более эффективно, чем микросхемы с ПО.
А если нет?

Ответить
10

Коллега, я думаю, всё говорит о необходимости срочного проведения Межгалактического шахматного конгресса

Ответить
–1

ИИ и нейросеть одно и тоже, просто на данный момент нейросетки на уровне попугая. Однако были эксперименты Microsoft, когда они ИИ ввели в твиттер и сказали учиться. Через 24 часа он стал нацистом, расистом, фенистом и начал всех оскорблять))

Ответить
4

Разумеется, нейросеть и ИИ - не одно и то же. С этого и начинается мой комментарий.

Ответить
1

Вы это сказали и начали описывать нейросеть, которая симулирует работу нейронов головного мозга. Нейросеть умеет приспосабливаться к изменениям, например Гугловская нейросеть прекрасно оптимизирует Adwords. Скорость обучение просто растет по экспоненте по отношению к количеству поглощенных данных, тк в отличие от человека она ничего не забывает. Общая децентрализованная сеть никак не противоречит понятию Нейросети, тк уже сейчас голосовые помощники типа Alexa, Cortana, и даже Skype (для синхронного перевода) так и учатся.

Ответить
1

Цели они себе тоже сами ставят и экспериментируют со способами достижения?
Поясните, что имеете ввиду под ростом скорости обучения нейросети по экспоненте? Можно пример?

Ответить
0

Чем больше данных обработано, тем лучше и быстрее усваиваются новые данные. Ровно так же работает человеческий мозг. Чем больше языков Вы учите, тем проще и быстрее учить новый.

Цель машина не может изначально себе поставить и никогда не поставит. Изначально направление ей задаст человек, а потом выйдет из под контроля все. Например, если дать задачу автопилоту обеспечить безопасность водителя, то он может начать убивать других ради этого (см. иллюстрацию в сериале "Рик и Морти" 2 сезон, 6 серия).

Разумеется может случить баг, когда случайно "помощник" обретет самосознание (см. пример в фильме "Космическая одиссея").

Все варианты возможны, тк нейросеть подвержена такому же эволюционному развитию, как и биологические виды.

Про цель можно добавить, что дети, которые вырастают в джунглях и живут среди зверей лишены какой-либо цели и руководствуются инстинктами. Все жизненные цели это результат совокупности факторов влияния социума.

Ответить
1

| нейросеть, которая симулирует работу нейронов головного мозга

Нейросеть - это геометрическая задача перемещения точки в многомерном пространстве. Система линейных уравнений, где методом "обучения" подбираются/подкручиваются коэффициенты. Забудьте этот бред, что нейросеть имеет отношение к живым нейронам.

https://medium.freecodecamp.org/how-to-create-a-neural-network-in-javascript-in-only-30-lines-of-code-343dafc50d49

Ответить
0

В смысле что данных нужно экспоненциально много? У вас не там экспонента:)

Ответить
0

Это как в mass effect, любая развитая цивилизация в конечном счете создает ИИ, который уничтожает ее.

Ответить
0

А как же первое правило робототехники?)

Ответить
0

[тут должна быть шутка про Бойцовский клуб]

Ответить
0

Удивляют комментаторы, которых удивляют другие комментаторы. Ты сейчас написал про нейросеть, хотя слово нейросеть ранее в комментариях встретилась лишь один раз и ты повторил мысли того комментария. С тобой всё ок или ты умеешь в будущее заглядывать?

Ответить
13

1) Что увидел Маск в словах Путина
2) Что Путин имел в виду

Ответить
9

Путин и есть искусственный интеллект.

Ответить
7

у Илона последнее время какая-то AI-фобия, даже Володю вспомнил, хотя где AI и где Володя :0)

Ответить
3

Я лучше доверю распоряжаться моей жизнью компутеру, чем мясному мешку.

Ответить
5

Вы просто не знакомы с быдло-кодерами :)

Ответить
0

Знаком. Вот поэтому и не люблю обезьян.

Ответить
3

Маск как и все технари очень далёк от политики. Заявления Путина это очки в предвыборную программу, пока на земле есть нефть люди будут воевать за неё. А вот с помощью чего это уже другой вопрос.

Ответить
5

да путин просто заигрывает с молодежью

Ответить
5

Мне кажется, Илон просто пытается таким образом привлечь больше внимания к Space X и увеличить количество желающих вкинуться в освоение Марса.

Ответить
5

Кажется Маск не в курсе, что в отличие от него наши чиновники настолько криворукие, что даже авторитаризм не могут создать толком. Куда им до искусственного интеллекта.
Что касается нашего Гаранта конституции то фразы вроде "Делаем блокчейн", "Создаем ИИ", "Боремся с коррупцией" имеют одинаковый общий знаменатель в виде нуля и служат предвыборным словоблудием.

Ответить

Комментарий удален

4

Он Илон

Ответить
1

Он вам не Элон (с)

Ответить

Комментарий удален

Комментарий удален

3

С его именем экспериментируют не хуже, чем с фамилией Камбербетча

Ответить
1

Илону Давыдову с ее курсами никто не путал, а вот Маска все)))

Ответить
1

Он вам не Элон! :grin:

Ответить
1

Только наш президент-сказочник рассказывая детям о технологиях, мог употребить термин "властелин мира"

Ответить
1

Каждый раз поражаюсь, вроде бы Илон взрослый выдающийся человек, а пишет какую-то ерунду :) Просто он привык созидать и в его понимании ИИ - свободный разум, некая абстракция которая гуляет сама по себе, ну в целом как и должно быть. Когда же Пу говорит об ИИ, то это просто очень умная штука, которая может без палева очень хорошо шпионить и доносить, ну ещё и у вояк прицелы наводить.

Ответить
2

Вот когда начнётся третья мировая, тогда и поговорим

Ответить
1

Озабоченность Маска по поводу AI наводит на мысль, что не так давно его изнасиловал робот

Ответить
1

Я так и знал, что робот не мог сам утопиться ;)

Ответить
0

- Путин рассказал о развития искусственного интеллекта школьникам в Ярославле.

- На мой взгляд, конкуренция за первенство в сфере ИИ на национальном уровне — самая вероятная причина начала Третьей мировой войны

Ответить

Комментарий удален

Комментарий удален

0

Путин то тут при чем?

Ответить
0

Понятно, почему Илон Маск хочет освоить Марс

Ответить
0

Путин уже староват, как и положено, - он боится того, чего не понимает, особенно нового. Сразу идут запреты и запугивания в СМИ, как с блокчейном. Если бы Путин реально верил в то, о чём говорит, то сейчас бы здесь уже сажали за разработку ИИ без лицензии ФСБ.

Ответить
0

Прямой эфир

[ { "id": 1, "label": "100%×150_Branding_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox_method": "createAdaptive", "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfl" } } }, { "id": 2, "label": "1200х400", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfn" } } }, { "id": 3, "label": "240х200 _ТГБ_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fizc" } } }, { "id": 4, "label": "240х200_mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "flbq" } } }, { "id": 5, "label": "300x500_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfk" } } }, { "id": 6, "label": "1180х250_Interpool_баннер над комментариями_Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "ffyh" } } }, { "id": 7, "label": "Article Footer 100%_desktop_mobile", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjxb" } } }, { "id": 8, "label": "Fullscreen Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjoh" } } }, { "id": 9, "label": "Fullscreen Mobile", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjog" } } }, { "id": 10, "disable": true, "label": "Native Partner Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyb" } } }, { "id": 11, "disable": true, "label": "Native Partner Mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyc" } } }, { "id": 12, "label": "Кнопка в шапке", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "p1": "bscsh", "p2": "fdhx" } } }, { "id": 13, "label": "DM InPage Video PartnerCode", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox_method": "createAdaptive", "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "flvn" } } }, { "id": 14, "label": "Yandex context video banner", "provider": "yandex", "yandex": { "block_id": "VI-223676-0", "render_to": "inpage_VI-223676-0-1104503429", "adfox_url": "//ads.adfox.ru/228129/getCode?pp=h&ps=bugf&p2=fpjw&puid1=&puid2=&puid3=&puid4=&puid8=&puid9=&puid10=&puid21=&puid22=&puid31=&puid32=&puid33=&fmt=1&dl={REFERER}&pr=" } }, { "id": 15, "label": "Плашка на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byudx", "p2": "ftjf" } } }, { "id": 16, "label": "Кнопка в шапке мобайл", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byzqf", "p2": "ftwx" } } }, { "id": 17, "label": "Stratum Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvb" } } }, { "id": 18, "label": "Stratum Mobile", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvc" } } }, { "id": 19, "label": "Тизер на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "p1": "cbltd", "p2": "gazs" } } } ]
Нейронная сеть научилась читать стихи
голосом Пастернака и смотреть в окно на осень
Подписаться на push-уведомления