Терминатор – друг человека, или как перестать бояться и полюбить ИИ

Восстание машин, о неизбежности которого нам рассказывали на протяжении пяти частей фильма «Терминатор» и снова расскажут в шестой, откладывается на неопределенный срок. Более того, оно вообще никогда не произойдет, если только мы не устроим его себе сами. Роботы и искусственный интеллект – производная человека, которая по своей воле не выйдет за рамки дозволенного.

Страхи с историей

Ученые, эксперты, футурологи всерьез опасаются, что развитие искусственного интеллекта, обладающего способностью самостоятельного мышления, обернется для людей настоящим концом света. Максимально приближенный к человеку в плане широты и глубины мышления ИИ (так называемый ИИ общего назначения) не сулит людям ничего хорошего.

И это не маргинальная идея: такие люди, как Билл Гейтс, Илон Маск и Тим Бернерс-Ли не раз выражали по этому поводу серьезную озабоченность. ИТ-гуру говорили как о прямом апокалипсисе, так и возможном воцарение «бессмертного диктатора», от правления которого человек не сможет избавиться никогда.

Даже Стивен Хокинг предупреждал, что развитие общего искусственного интеллекта «может означать конец человеческой расы как таковой». Страхи научной элиты восходят к самому началу компьютерной эры, когда сам Алан Тюринг писал, что машины со временем «превзойдут наши слабые силы» и «возьмут жизнь под свой контроль».

Pro et contra

Впрочем, на эти прогнозы находятся обоснованные возражения: ИИ следует развивать в узкоспециализированных областях, прикладных и ограниченных кругом конкретных задач. И если делать это вдумчиво и ответственно, то машинный интеллект будет присутствовать в нашем мире как один из важнейших элементов его дальнейшего развития к новым высотам цивилизации.

Причем не просто как совершенно безопасный элемент, но и полезный. Беспилотные авто будут спасать десятки тысяч человеческих жизней каждый год, ту же задачу помогут решить ИИ-средства медицинской диагностики, мониторинг опасных производств и т.д.

Терминатор – друг человека, или как перестать бояться и полюбить ИИ

Самые продвинутые ИИ-энтузиасты идут еще дальше: компьютеры полностью возьмут на себя выполнение ежедневных задач по жизнеобеспечению, необходимость в работе для человека отпадет, а смерти не будет, потому что содержимое мозга можно будет перекачать в облако, продолжая общение с помощью привычных мессенджеров и других интерфейсов для коммуникации.

Пессимисты уверены в обратном: нет никаких причин для ИИ испытывать к человеку чувства благодарности и почтения. Теоретических оснований для этого нет, а масштабы разрыва в возможностях интеллекта между людьми и их творениям будут совершенно невообразимыми, опережающими сегодняшний, и без того крайне серьезный уровень.

Через призму искусства

Скрипач не нужен, а люди – биологическая прелюдия, «разогрев» перед большим digital-концертом длиною в вечность? Если посмотреть на образы будущего, которые по этому поводу создавались в искусстве, всё действительно плохо. В трудах многих писателей фантастов сверхмощные компьютеры и работы-андроиды человека не жаловали.

Терминатор – друг человека, или как перестать бояться и полюбить ИИ

В кинематографе все еще хуже. В творениях Кубрика, Скотта, братьев Вачовски и нашумевшем сериале «Мир Дикого запада», в незабвенной франшизе Кэмерона «Терминатор», шестая часть которого выходит на экраны, везде – человек неизменно распознается продвинутым ИИ как низшая форма жизни. Что порождает конфликты, сценарии глобальной эксплуатации и открытую войну на взаимное уничтожение.

Даже в трогательном спилберговском «Искусственном разуме», где андроид-ребенок выведен максимально «человечно», без конфликта «люди – машины» не обходится. Словом, искусство активно подкрепляет тревожную тональность ИТ-гуру.

Все в наших руках

Сегодня оценки примерной даты появления полноценного ИИ общего назначения приходятся на диапазон 2045-2050 годов, что совпадает с аналогичными прогнозами по поводу старта эры «сингулярности» - качественного фазового перехода в уровне развития технологий.

Терминатор – друг человека, или как перестать бояться и полюбить ИИ

Ждать осталось не так недолго.

Однако, здесь на помощь человеку может (и должен) прийти «самонесбывающийся негативный прогноз»: когда о каком-то неблагоприятном явлении в будущем говорят так много и подробно, что в процессе этих обсуждений рождается решение проблемы, и она не материализуется в реальной жизни. Вспомните компьютерный конец света 2000 года, который должен был наступить из-за глобального сбоя в мировых ИТ-системах.

Однако, чтобы самые страшные сценарии воплощения ИИ общего назначения не стали реальностью, необходимо действовать. И вот как.

План действий

Во-первых, параллельно с развитием вычислительных мощностей и сценариев прикладного использования компьютерного мозга нужно также глубоко прорабатывать вопросы устойчивости ИИ.

Это – отдельное направление в развитии всего спектра технологий искусственного интеллекта, которым следует заниматься профильным специалистам, постоянно решающим задачи функционирования ИИ надлежащим (безопасным для человека) образом.

Во-вторых, с масштабированием применения ИИ-алгоритмов необходимо четко отслеживать практику, поскольку строгая математическая ориентация компьютера на определенный результат не предполагает соблюдения этических аспектов, неотъемлемых в широком спектре типично «человеческих» задач. Машина без подсказки и контроля такие вещи считывать не в состоянии.

Наконец, самое главное – прекратить панику по поводу восстания машин, кровожадных Терминаторов и массовой гибели людей из-за «чувства» превосходства ИИ над нами и принципиальной возможности всех нас уничтожить.

Милый терминатор

Любой ИИ развивается через процесс интерполяции суммы прошлого опыта на будущие действия. То есть, набор исходных правил и принципов, позволяющий принимать решения о действиях, предоставляет машине получать ту самую самостоятельность действий, развития которой мы сегодня опасаемся.

Терминатор – друг человека, или как перестать бояться и полюбить ИИ

Однако авторы многочисленных негативных прогнозов по ИИ и человеку забывают одну важнейшую деталь: при смене общей парадигмы действия, его контекста, хорошо спроектированный ИИ никаких действий предпринимать не будет. В непонятной для себя (новой) ситуации, как и полагается машине ИИ просто «зависнет» и обратится за помощью к человеку.

В худшем сценарии, конечно, ИИ может пуститься в самодеятельность и без опоры на какой-либо опыт или прописанный сценарий, натворить дел. Но только в том случае, если такую дыру пропустят разработчики, что полностью контролируется на этапе создания алгоритма.

Говоря о глобальной угрозе самостоятельного ИИ общего назначения, который обзаведется мотивацией, направит ее во враждебное русло по отношению к человеку и устроит нам планетарный геноцид, нужно делать одну ключевую оговорку.

А именно: это невозможно до тех пор, пока человек сам не осознает, каким образом он без опоры на предыдущий опыт приходит к прорывным, революционным идеям, и не научит этому процессу ИИ, такого рода шаги в исполнении машин невозможны в принципе. То есть, принципиальная возможность додуматься до получения какой-то формы ценности для ИИ от уничтожения людей сегодня не существует. Для этого машинный интеллект должен обладать не столько сверхмощными вычислительными ресурсами, сколько неким личностным аспектом, не существующим на данный момент в природе.

И на мой взгляд, вряд ли таковой когда-нибудь появится.

Важность прошлого

Самообучение возможно только на прошлом, историческая перспектива обучения – его ключевой элемент. Современный мир настолько часто меняет «точки отсчета» для формирования ответов на различные ситуации, что ИИ самостоятельно на них отвечать оказывается неспособен. Какой-бы мощный компьютер и продвинутые алгоритмы не лежали в основе конкретного решения.

Нет понимания контекста – нет действий. Не существует реперной точки, от которой ИИ может оттолкнуться и по цепочку умозаключений принять судьбоносное решение в духе «Боже, какой я умный, как сильно я превосхожу этих ничтожных людишек. Кстати, давай-ка я их уничтожу».

Этого не произойдет потому, что ранее в истории ИИ не существовало роботов, которые однажды пришли к такому заключению и реализовали его в своей практике.

Да, искусство виртуозно паразитирует на очевидных страхах: а что если ИИ-полицейский начнет (вдруг) трактовать самые бытовые ситуации не в пользу человека, усматривая в уничтожении ребенком комара преступление, тут же карая его смертной казнью?

В подобных рассуждениях больше эмоций, чем правды жизни – чтобы они воплотились в жизни, необходимо чтобы разработчики оставили лазейку для подобного сбоя, а учитель ИИ разметил в алгоритме такую ситуацию в качестве эпизода нарушения закона с соответствующим наказанием. Сам по себе ИИ к такому никогда не придет. Просто не додумается.

Все дело в нас

Человеческий фактор в ИИ, таким образом, остается главным фактором риска для человечества. Если целенаправленно не учить роботов и ИИ потенциально опасным вещам, проводить соответствующую профилактику и грамотно просчитывать возможные сценария обучения ИИ, никакого апокалипсиса и глобального мега-тирана в духе Большого Брата не предвидится.

Терминатор – друг человека, или как перестать бояться и полюбить ИИ

Любая машина – это то, что мы из нее делаем. Помните, в том же «Терминаторе» Т-800 был перепрограммирован Джоном Коннором, преданно служил ему, а затем и «погиб», защищая жизнь хозяина до последнего импульса своего электронного мозга.

Как миленький. Потому, что так запрограммировал его хозяин.

Лариса Малькова, управляющий директор Accenture Digital в России

33
7 комментариев
2
Ответить

Мем смешной, а ситуация страшная)))

По теме - ИИ уже сейчас позволяет за пару дней создавать стартапы, решающие потребности людей, скажем, в сфере медицины - пример: https://vk.com/wall-31492982_1457 

Я намекаю, что здесь речь конечно идёт о проектах другого уровня)) 

1
Ответить

Вы правильно указали, что Стивен Хокинг, и ему подобные, всего "Предупреждают" о том, что может произойти :) 

2
Ответить

Ну да) Но всё-равно, если есть вероятность появления глобальных проблем, о ней лучше знать заранее))

Ответить

Когда кто либо обсуждает ИИ - он забывает про главное отличие в когнитивных функциях.

Это ( глубина  сомнения выбора и мульти-факторность вариативности основ значения приза для индивида во времени )
Как только осознаете к годам так 55-60 смысл этих комбинаций слов, в разрезе гормональных последствий обратной связи с биотой и интервенционных мотивов поведенческой модели различных расовых ответвлений и социальных групп. Вот тогда и наступит время поболтать о ИИ и его автономии.

1
Ответить

Забавный комментарий. 

Однако не стоит всех оценивать по своему уровню умственных способностей. Если что, я имею в виду неспособность предметно обсуждать вопрос.

В статье речь идёт о воздействии на социум такой технологии, как ИИ. Говорится о том, что вокруг неё, как при и появлении любой другой технологии или способа оптимизации бизнеса, например концепции больших данные, поднято много шумихи. Однако нужно уметь отделять пустой трёп (типа вашего) от реального потенциала того или иного инструмента. 

Например, данные кому-то позволяют уже сейчас зарабатывать от 5+ млн. рублей в день http://bit.ly/32lLqHf (Надеюсь, сможете самостоятельно плюс-минус прикинуть сколько это в месяц. Ну если нет, может поймете к годам так к 55-60 - Накопите там, или на экскурсию в банк пойдёте..) 

Потенциал же ИИ ещё полностью не раскрыт. И сценарии его применения, как позитивные, так и негативные, зависят прежде всего от людей, которые их закладывают. Опять-таки, это относится к тем, кто считает, что на это способен (судя по комменту, себя я так понял вы к ним не относите. Ну, не велика потеря). 

Ответить