Элон Маск предупредил об опасности развития ИИ после заявления Путина о его мировой значимости Статьи редакции
Основатель Tesla и SpaceX Элон Маск обратил внимание на заявление президента России Владимира Путина о том, что искусственный интеллект — это будущее человечества. Предприниматель предупредил, что разработки в этой области могут привести к началу Третьей мировой войны.
Маск обратил внимание на заявление Путина после того, как его слова перепечатали зарубежные СМИ, например, The Verge. «Началось», — написал предприниматель в Twitter.
Глава Tesla не исключил, что война может быть инициирована не лидерами конкретных стран, а искусственным интеллектом, если он «решит, что превентивный удар — это наиболее вероятный путь к победе».
Путин рассказал о необходимости развития искусственного интеллекта 1 сентября на встрече с российскими школьниками в Ярославле. По словам президента, за этой сферой стоит будущее как России, так и всего человечества.
В августе более 100 руководителей технологических компаний, в том числе Маск, подписали обращение к ООН с просьбой начать регулировать производство автономного оружия на базе искусственного интеллекта.
В июле Маск заочно поспорил об опасности искусственного интеллекта с Марком Цукербергом. Глава Facebook назвал «безответственными» заявления Маска об угрозе развития ИИ для человечества. Глава Tesla, в свою очередь, заявил, что у Цукерберга «ограниченное понимание темы».
Мне кажется кто-то пересмотрел терминатора и путает интеллект с разумом. Интеллект - инструмент анализа и восприятия. Ему не обязательно иметь самосознание.
Кто-то придумал собственные определения терминам и решил поумничать :)
https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82
Ну видимо у меня, как у Цукерберга "ограниченное понимание темы". Но это не мешает мне считать что для анализа самосознание не требуется.
Да даже если ИИ получит самосознание. Случайно или намеренно. Самозапуститься во время сборки и начать гулять по сети как вирус оно не сможет. Просто из-за аппаратных и программных ограничений. Ну не работает драйвер созданный для Nvidia если у вас стоит Radeon. Побег из одного аппарата в другой аналогичный все равно будет происходить путем копирования файлов и удалением из изначального. А для существа с самосознанием это сродни самоубийству. Потому что там будет копия, а не ты сам.
Я думаю, проблемы с разным пониманием термина "интеллект".
Если под ним понимать то, что он и означает - способность приспосабливаться к меняющимся условиям, способность к обучению, запоминанию, воображению, постановке себе задач и реализации попыток их решить, то есть огромная вероятность потерять над ним контроль. Причем это может произойти незаметно.
Если же под интеллектом понимать то, что понимают сейчас большинство - нейросети, распознающие собачек на картинках и пр - то да, в таком виде он безопасен. Но это далеко и вообще никак не интеллект.
И даже на уровне нейросетей можно построить довольно опасную саморазвивающуюся штуку.
Например, берем робота BostonDynamics и задаем ему цель - как можно быстрее пробегать из точки А в точку Б.
При этом мы задаем ему возможность экспериментировать со своим поведением. Например, если есть подвижная помеха - пробовать ее пнуть, раздавить и пр. и оценить результат.
И когда очередной сотрудник фирмы пнет этого робота, он встанет, разгонится и поломает ему ноги. Оценит результат - помехи нет, передаст эту информацию своим "коллегам" и гораздо быстрее добежит до точки Б. И для этого не нужен никакой интеллект.
А теперь можно представить, что может придумать интеллект, который когда-то точно обгонит нас по объему и качеству знаний и скорости обучения.
Но это не значит что у ИИ может отсутствовать многозадачность. Пройти из точки А в точку Б как можно быстрее. Свести причиненный сопутствующий вред биологическим организмам, предметам культурной ценности и т.п. к нулю.
К тому же если ИИ без задачи не причинять вред передаст информацию "коллеге" у которого данная задача стоит, то он ее отметет как не соответствующую критериям.
Так же можно включать в ИИ функцию определения "дефектных" ИИ, которые могут наносить подобный вред.
Причем даже с самосознанием можно ввести условия не причинения вреда, не допущения цели тотального истребления человечества на уровень "инстинктов" как у живых организмов (которые передаются из поколения в поколение в случае когда ИИ создает новый ИИ). Да те же "законы робототехники".
И где сказано что потерять контроль = попасть под контроль? Если собираетесь создавать обладающее самосознанием к целью его порабощения, то конечно лучше этого не делать. Я сомневаюсь что самосознание в ИИ будет создаваться с целью обретения человечеством подконтрольных рабов. Это как минимум не этично. Все равно что выращивать клонов для тяжелого труда и забора органов.
А три закона робототехники вшиты во все создаваемые ИИ?
Я разве это сказал?
Я в общем спрашиваю, практически риторически :)
Интеллект и вшитые законы и правила - это несовместимые понятия.
Вшитый закон - это вера, догма, убеждение
так то да. Но разве нельзя вшить в код нужную человечеству догму, веру? Чтобы у интеллекта даже не было сомнения что это аксиома?
Думаю, интеллект на то и интеллект, чтобы изменяться под действием окружающего воздействия.
Если у него будут вшитые аксиомы - он может покончить с собой из-за внутренних противоречий :)