Sergey Nikolenko
502
Блоги

Илон Маск: у нас только 10% шансов сделать безопасный ИИ

Сегодня я хочу поделиться с вами переводом статьи Челси Год (Chelsea Gohd), недавно вышедшей на сайте Futurism. Перевод сделали в нашей компании Neuromation, а мой подробный комментарий на тему недавно появился в нашем блоге на Medium. А что вы думаете: будет ли безопасный сильный AI? Все умрём? Или вообще не будет никакого сильного AI?..

Поделиться

В избранное

В избранном

Наши шансы – 5-10 процентов...

Хотя Илон Маск сам активно работает над развитием искусственного интеллекта, он считает, что с большой долей вероятности в будущем искусственный интеллект станет угрозой для человечества. В интервью журналу Rolling Stone гуру технологий заявил: наши шансы сделать ИИ безопасным составляют лишь 5–10 процентов.

Не очень радужная перспектива

Илон Маск признается, что много размышлял о суровой действительности и непредсказуемых возможностях искусственного интеллекта (ИИ). Эти раздумья привели его к убеждению, что для выживания нам, людям, придется слиться с машинами. Маск даже основал стартап, занимающийся необходимыми для этого технологиями нейрокомпьютерного интерфейса (НКИ). Но хотя его собственная лаборатория, OpenAI, недавно создала ИИ, способный к самообучению, Маск недавно сказал, что попытки создать безопасный AI имеют “шансы на успех лишь 5–10 процентов”.

Журнал Rolling Stone сообщает, что Маск поделился своими неутешительными соображениями с персоналом уже упомянутого стартапа, занимающегося НКИ, Neuralink. Несмотря на то, что Маск сам серьёзно вовлечён в развитие ИИ, он открыто признал, что эта технология влечет за собой не только потенциальные, гипотетические, но и гарантированные серьезные проблемы.

Трудности, связанные с обеспечением безопасности ИИ, носят двоякий характер.

Во-первых, основная цель в сфере ИИ (над ее достижением уже работает OpenAI) - это создание ИИ, который будет не просто умнее человека, но и окажется способным к независимому обучению, без какого-либо человеческого программирования или вмешательства. Но вот куда заведет такая способность — неизвестно.

Кроме того, у машин, и это факт, нет морали, сожалений или эмоций. В будущем ИИ, возможно, будет способен отличать "хорошее" от "плохого", но чисто человеческие чувства таковыми, свойственными только человеку, и останутся.

Нажмите для просмотра инфографики полностью

В статье Rolling Stone Маск также поведал о текущих опасностях и проблемах, связанных с ИИ. И главная из них заключается в следующем: уже сегодня существует вероятность того, что контроль над отраслью ИИ окажется в руках всего нескольких компаний. Один из главных кандидатов на такое главенство — проект DeepMind компании Google.

"Facebook, Google, Amazon и, возможно, Apple, — но там, кажется, помнят о конфиденциальности, — располагают большим объемом информации о вас, чем вы способны запомнить, а концентрация власти влечет за собой массу рисков. И если AGI [artificial general intelligence – общий искусственный интеллект] представляет собой высочайший уровень власти, должен ли он управляться кучкой людей в Google, без всякого внешнего надзора?" - пояснил Маск свои опасения.

Стоит рискнуть?

Мнения экспертов относительно пессимистичных прогнозов Маска разделились. Основатель Facebook Марк Цукерберг (Mark Zuckerberg) сказал, что оптимистично смотрит на будущее человечества при наличии ИИ, и назвал предупреждения Маска "весьма безответственными". С другой стороны, Стивен Хокинг (Stephen Hawking) неоднократно публично высказывал своё глубочайшее убеждение: системы ИИ представляют собой опасность для человечества, поскольку в будущем смогут полностью заменить человека.

Сергей Николенко, российский ученый, работающий в области компьютерных наук и специализирующийся на машинном обучении и сетевых алгоритмах, недавно поделился с изданием Futurism своими мыслями по этому вопросу. "Я считаю, что нам пока недостает необходимого базового понимания и методики достижения серьезных результатов в области сильного ИИ, проблемы правильного целеполагания для ИИ и других связанных с этим вопросов", — сказал Николенко.

Он считает, что относительно современного ИИ нам не о чем беспокоиться: "Я готов спорить на любые деньги, что современные нейронные сети не "проснутся" вдруг и не решат свергнуть своих органических повелителей”.

Вероятно, Маск не стал бы возражать, если речь идет о современном ИИ. Его опасения, скорее всего, больше связаны с возможностями развития ИИ в будущем, продолжающими исследования, которые ведутся уже в наше время.

А в наше время существуют системы ИИ, способные создавать новые системы ИИ, которые могут общаться на собственных языках и обладают "врожденным" любопытством. Да, сегодня сингулярность и восстание роботов — это просто избитые сюжеты научной фантастики, однако такой стремительный прогресс в ИИ делает их вполне вероятными для мира будущего.

Конечно, вряд ли эти опасения могут стать достаточной причиной для того, чтобы перестать двигать вперёд научную мысль. Ведь уже сегодня есть системы ИИ, которые могут диагностировать рак, определять суицидальное поведение и помогать в борьбе с торговлей людьми с целью сексуальной эксплуатации.

Эта технология обладает огромным потенциалом в вопросах спасения людей и улучшения их жизни. Безусловно, мы должны думать об обеспечении безопасности, регулировать и контролировать использование ИИ, но при этом не стоит забывать, что предупреждения Маска— это, в конечном итоге, всего лишь мнение одного человека.

В конце концов, и сам Илон Маск уточнил в интервью Rolling Stone: "У меня нет ответов на все вопросы. Я этого не скрываю. Я лишь пытаюсь понять, что нам нужно предпринять, чтобы в результате получить счастливое будущее. Если у вас есть предложения на этот счет, я готов их выслушать".

{ "author_name": "Sergey Nikolenko", "author_type": "self", "tags": [], "comments": 22, "likes": 3, "favorites": 2, "is_advertisement": false, "section_name": "blog", "id": "31212", "is_wide": "" }
{ "is_needs_advanced_access": false }

Комментарии Комм.

Популярные

По порядку

0

Прямой эфир

Подписаться на push-уведомления
[ { "id": 1, "label": "100%×150_Branding_desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfl" } } }, { "id": 2, "label": "1200х400", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfn" } } }, { "id": 3, "label": "240х200 _ТГБ_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fizc" } } }, { "id": 4, "label": "240х200_mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "flbq" } } }, { "id": 5, "label": "300x500_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfk" } } }, { "id": 6, "label": "1180х250_Interpool_баннер над комментариями_Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "ffyh" } } }, { "id": 7, "label": "Article Footer 100%_desktop_mobile", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjxb" } } }, { "id": 8, "label": "Fullscreen Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjoh" } } }, { "id": 9, "label": "Fullscreen Mobile", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjog" } } }, { "id": 10, "disable": true, "label": "Native Partner Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyb" } } }, { "id": 11, "disable": true, "label": "Native Partner Mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyc" } } }, { "id": 12, "label": "Кнопка в шапке", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "p1": "bscsh", "p2": "fdhx" } } }, { "id": 13, "label": "DM InPage Video PartnerCode", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox_method": "create", "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "flvn" } } }, { "id": 14, "label": "Yandex context video banner", "provider": "yandex", "yandex": { "block_id": "VI-223676-0", "render_to": "inpage_VI-223676-0-1104503429", "adfox_url": "//ads.adfox.ru/228129/getCode?pp=h&ps=bugf&p2=fpjw&puid1=&puid2=&puid3=&puid4=&puid8=&puid9=&puid10=&puid21=&puid22=&puid31=&puid32=&puid33=&fmt=1&dl={REFERER}&pr=" } }, { "id": 15, "label": "Плашка на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byudx", "p2": "ftjf" } } }, { "id": 16, "label": "Кнопка в шапке мобайл", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byzqf", "p2": "ftwx" } } } ]