{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Элон Маск предупредил об опасности развития ИИ после заявления Путина о его мировой значимости Статьи редакции

Основатель Tesla и SpaceX Элон Маск обратил внимание на заявление президента России Владимира Путина о том, что искусственный интеллект — это будущее человечества. Предприниматель предупредил, что разработки в этой области могут привести к началу Третьей мировой войны.

Маск обратил внимание на заявление Путина после того, как его слова перепечатали зарубежные СМИ, например, The Verge. «Началось», — написал предприниматель в Twitter.

China, Russia, soon all countries w strong computer science. Competition for AI superiority at national level most likely cause of WW3 imo.

«Китай, Россия, скоро и все другие сильные в компьютерных науках страны. На мой взгляд, конкуренция за первенство в сфере ИИ на национальном уровне — самая вероятная причина начала Третьей мировой войны»

Глава Tesla не исключил, что война может быть инициирована не лидерами конкретных стран, а искусственным интеллектом, если он «решит, что превентивный удар — это наиболее вероятный путь к победе».

Путин рассказал о необходимости развития искусственного интеллекта 1 сентября на встрече с российскими школьниками в Ярославле. По словам президента, за этой сферой стоит будущее как России, так и всего человечества.

Тот, кто станет лидером в этой сфере, будет властелином мира. И очень бы не хотелось, чтобы эта монополия была сосредоточена в чьих-то конкретных руках, поэтому мы, если мы будем лидерами в этой сфере, также будем делиться этими технологиями со всем миром, как мы сегодня делимся атомными и ядерными технологиями.

Владимир Путин, президент России

В августе более 100 руководителей технологических компаний, в том числе Маск, подписали обращение к ООН с просьбой начать регулировать производство автономного оружия на базе искусственного интеллекта.

В июле Маск заочно поспорил об опасности искусственного интеллекта с Марком Цукербергом. Глава Facebook назвал «безответственными» заявления Маска об угрозе развития ИИ для человечества. Глава Tesla, в свою очередь, заявил, что у Цукерберга «ограниченное понимание темы».

0
57 комментариев
Написать комментарий...
Николай Попов

Мне кажется кто-то пересмотрел терминатора и путает интеллект с разумом. Интеллект - инструмент анализа и восприятия. Ему не обязательно иметь самосознание.

Ответить
Развернуть ветку
Николай Петров

Кто-то придумал собственные определения терминам и решил поумничать :)
https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82

Ответить
Развернуть ветку
Николай Попов

Ну видимо у меня, как у Цукерберга "ограниченное понимание темы". Но это не мешает мне считать что для анализа самосознание не требуется.

Да даже если ИИ получит самосознание. Случайно или намеренно. Самозапуститься во время сборки и начать гулять по сети как вирус оно не сможет. Просто из-за аппаратных и программных ограничений. Ну не работает драйвер созданный для Nvidia если у вас стоит Radeon. Побег из одного аппарата в другой аналогичный все равно будет происходить путем копирования файлов и удалением из изначального. А для существа с самосознанием это сродни самоубийству. Потому что там будет копия, а не ты сам.

Ответить
Развернуть ветку
Николай Петров

Я думаю, проблемы с разным пониманием термина "интеллект".
Если под ним понимать то, что он и означает - способность приспосабливаться к меняющимся условиям, способность к обучению, запоминанию, воображению, постановке себе задач и реализации попыток их решить, то есть огромная вероятность потерять над ним контроль. Причем это может произойти незаметно.

Если же под интеллектом понимать то, что понимают сейчас большинство - нейросети, распознающие собачек на картинках и пр - то да, в таком виде он безопасен. Но это далеко и вообще никак не интеллект.

И даже на уровне нейросетей можно построить довольно опасную саморазвивающуюся штуку.

Например, берем робота BostonDynamics и задаем ему цель - как можно быстрее пробегать из точки А в точку Б.
При этом мы задаем ему возможность экспериментировать со своим поведением. Например, если есть подвижная помеха - пробовать ее пнуть, раздавить и пр. и оценить результат.

И когда очередной сотрудник фирмы пнет этого робота, он встанет, разгонится и поломает ему ноги. Оценит результат - помехи нет, передаст эту информацию своим "коллегам" и гораздо быстрее добежит до точки Б. И для этого не нужен никакой интеллект.

А теперь можно представить, что может придумать интеллект, который когда-то точно обгонит нас по объему и качеству знаний и скорости обучения.

Ответить
Развернуть ветку
Николай Попов

Но это не значит что у ИИ может отсутствовать многозадачность. Пройти из точки А в точку Б как можно быстрее. Свести причиненный сопутствующий вред биологическим организмам, предметам культурной ценности и т.п. к нулю.

К тому же если ИИ без задачи не причинять вред передаст информацию "коллеге" у которого данная задача стоит, то он ее отметет как не соответствующую критериям.

Так же можно включать в ИИ функцию определения "дефектных" ИИ, которые могут наносить подобный вред.

Причем даже с самосознанием можно ввести условия не причинения вреда, не допущения цели тотального истребления человечества на уровень "инстинктов" как у живых организмов (которые передаются из поколения в поколение в случае когда ИИ создает новый ИИ). Да те же "законы робототехники".

И где сказано что потерять контроль = попасть под контроль? Если собираетесь создавать обладающее самосознанием к целью его порабощения, то конечно лучше этого не делать. Я сомневаюсь что самосознание в ИИ будет создаваться с целью обретения человечеством подконтрольных рабов. Это как минимум не этично. Все равно что выращивать клонов для тяжелого труда и забора органов.

Ответить
Развернуть ветку
Mihail

А три закона робототехники вшиты во все создаваемые ИИ?

Ответить
Развернуть ветку
Николай Попов

Я разве это сказал?

Ответить
Развернуть ветку
Mihail

Я в общем спрашиваю, практически риторически :)

Ответить
Развернуть ветку
Николай Петров

Интеллект и вшитые законы и правила - это несовместимые понятия.
Вшитый закон - это вера, догма, убеждение

Ответить
Развернуть ветку
Mihail

так то да. Но разве нельзя вшить в код нужную человечеству догму, веру? Чтобы у интеллекта даже не было сомнения что это аксиома?

Ответить
Развернуть ветку
Николай Петров

Думаю, интеллект на то и интеллект, чтобы изменяться под действием окружающего воздействия.
Если у него будут вшитые аксиомы - он может покончить с собой из-за внутренних противоречий :)

Ответить
Развернуть ветку
54 комментария
Раскрывать всегда