Перезагрузка искусственного интеллекта

Ключевые идеи книги «Искусственный интеллект: перезагрузка» Гэри Маркуса и Эрнеста Дэвиса, ученых, которые специализируются на искусственном интеллекте.

Прочитав обзор, вы узнаете о том, почему, несмотря на прогнозы технооптимистов и шумиху в СМИ, мы еще очень далеки от создания искусственного интеллекта, подобного человеческому.

Фото книги предоставлено командой сервиса MakeRight.ru

С середины ХХ века звучат оптимистичные прогнозы о создании искусственного интеллекта (ИИ), подобного человеческому. Авторы книги, принимая во внимание реальное положение дел в этой сфере, считают этот оптимизм необоснованным.

В своей книге Маркус и Дэвис объясняют, почему ИИ не сможет стать подобным человеческому, если будет развиваться по текущему пути, и о том, в каком направлении нужно работать, чтобы создать действительно мыслящие машины.

Рассмотрим важные идеи книги.

В сфере развития искусственного интеллекта есть разрыв между тем, о чем сообщают СМИ, и тем, как обстоят дела на самом деле

По мнению авторов, оторванность от реальности характерна как для оптимистических прогнозов, так и для пессимистических. Большой вклад в это вносят СМИ, которые преподносят скромный прогресс как невероятный прорыв, привлекая внимание и пугая своих читателей. Но стоит только разобраться, какая именно информация скрывается за громким заголовком или пресс-релизом, как становится понятно, что дело обстоит совсем не так, как его пытаются представить.

Это не значит, что в сфере исследований ИИ нет реального прогресса. Прекрасные достижения получены в таких областях, как распознавание изображений и речи, управление и доставка грузов дронами. В основе успеха современных систем ИИ лежат два фактора: повышение вычислительной мощности аппаратного обеспечения и значительное увеличение библиотек данных.

Главная проблема ИИ — отсутствие гибкости, его крайняя узость, которая выражается в пригодности к решению очень специфических задач. Даже такой гигант, как Google, смог создать лишь крайне узкоспециализированную систему Google Duplex для совершения телефонных звонков.

Между оптимистичными прогнозами в отношении ИИ и реальностью существует огромный разрыв, который выражается в трех нерешенных проблемах.

Первая — легковерие, или фундаментальная ошибка оценки подлинности. Люди наделяют ИИ человеческими качествами и неверно оценивают его способности.

Вторая проблема — иллюзия быстрого прогресса. Быстрый прогресс в решении легких проблем не равен прогрессу в решении сложных проблем. То, что компьютер обыгрывает людей в интеллектуальные игры, не означает, что он умнее людей.

Третья проблема — переоценка надежности. Увлеченные успехами ИИ в одних областях, мы экстраполируем эти успехи на все. Мы считаем, что если беспилотное авто успешно ездит по магистрали, то это значит, что после доработки оно будет так же успешно показывать себя на городских улицах. Однако между двумя этими способностями лежит технологическая пропасть.

Современный подход, ориентированный на большие данные, не приводит к фундаментальному прорыву

Основная проблема в том, что доминирующий подход означает ориентацию на узкий ИИ и все большие наборы данных. В результате появляется много решений частных проблем, которые могут выглядеть впечатляюще, но они не способны привести к кардинальным прорывам. Современный ИИ, по выражению авторов, является слепым рабом данных. И чем больше мы полагаемся на такие системы, считая их интеллектуальными, тем к более опасным последствиям это может приводить.

На текущий момент основная опасность систем искусственного интеллекта состоит не в том, что они захватят власть и поработят нас, а в том, что они слишком ненадежны, хотя мы все чаще на них полагаемся.

Более того, по мнению авторов, вопрос о захвате власти машинами переоценен, так как у машин нет человеческой мотивации, целей и желаний.

Глубокое обучение представляет собой не интеллект, а лишь его фрагмент

Сегодня глубокое обучение — доминирующий метод разработки искусственного интеллекта. Это относительно новый подход, классический подход ориентировался на ручное кодирование знаний, которые должны были затем использовать машины. Классический подход еще используется в ряде областей, но он был практически полностью вытеснен машинным обучением, извлекающим закономерности из больших объемов данных и выдающим на их основе предсказания.

В основе глубокого обучения лежат иерархическое распознавание образов и само обучение. Иерархическое распознавание образов означает обработку данных в определенной последовательности, подобно нейронам зрительной системы человека.

Схожестью узлов искусственных сетей с нейронами человека объясняется название «нейронные сети».

Вторая основа глубокого обучения — это обучение методом проб и ошибок, когда система осваивает все больше корреляций и становится все более точной в своих предсказаниях.

Тем не менее авторы, признавая впечатляющие результаты работы нейронных сетей в ряде областей, указывают, что глубокое обучение — это не искусственный интеллект, а лишь часть более сложной задачи создания интеллектуальных машин.

Они выделяют три основные проблемы глубокого обучения.

Первая — для него требуются огромные массивы данных. Если в играх правила остаются неизменными и машины можно научить всем комбинациям ходов, то во множестве областей реальной жизни невозможно получить достаточное количество релевантных данных, чтобы обеспечить надежность системы глубокого обучения. Это является очевидным ограничением для ее работы.

Вторая проблема — непрозрачность решений нейронных сетей. Нейронные сети принимают решения на основе больших массивов данных, сама логика этих решений скрыта не только от обычных пользователей, но зачастую и от экспертов. Чем больше мы полагаемся на нейронные сети, тем важнее становится понимание принципов, по которым они принимают решения. Эти принципы не должны оставаться тайной, когда от них зависят жизни и благополучие людей.

Третья проблема глубокого обучения — оно нестабильно и непредсказуемо. Авторы дают множество примеров, когда нейронные сети интерпретируют очевидные для человека изображения неправильно, например, принимая черепаху за винтовку, а бейсбольный мяч с пеной за чашку капучино. Такие ошибки имеют критическое значение, если мы собираемся передавать системам функцию управления транспортными средствами или защиту людей от нападений.

Авторы заключают, что глубокое обучение, несмотря на название, в действительности не так уж и глубоко. Оно лишено глубины человеческого разума, а распознавание речи и изображений — не интеллект, а лишь его мельчайшие фрагменты.

Очень важная задача на пути создания искусственного интеллекта — научить машины читать и понимать прочитанное

На сегодняшний день уже предпринимаются попытки создать читающие машины, но задача слишком сложна. Так, создали проекта Google Talk To Books обещали использовать понимание естественного языка, чтобы обеспечить совершенно новый способ изучения книг. Предполагалось, что система будет отвечать на любые вопросы, находя ответы на них в книгах. Однако в действительности эта система не имела никакого представления о том, что читала. И если с ответами на буквальные вопросы она справлялась еще неплохо, то там, где ответы требовали подключения абстрактного мышления, результаты были ужасными.

Люди, в отличие от современных нейросетей, понимают, что ответы, которые можно найти в книгах, изложены в них не буквально. Читатель «Гарри Поттера», в отличие от системы ИИ, может найти в книгах все семь крестражей, даже с учетом того, что они не перечисляются в виде единого списка.

Подобно человеку, действительно разумная машина должна не только повторять то, что прочла, но и уметь синтезировать информацию.

На сегодняшний день работа нейросетей примитивна по сравнению с человеческим языком, заключают авторы. Из текста системы ИИ способны извлекать очень ограниченную информацию.

Пока что очень рано беспокоиться о нашествии роботов

Авторы с юмором пишут, что если вы боитесь, что роботы восстанут и атакуют людей, вам нужно лишь закрыться дома, покрасить ручку так, чтобы она была незаметна на фоне двери, прикрепить к входной двери большой плакат со школьным автобусом или причудливо раскрашенным тостером, положить на пол банановую кожуру и гвозди, для дополнительной безопасности можно поставить на пути робота стол. Все это — непреодолимые для роботов препятствия. Более того, в процессе прохождения препятствий у современного робота наверняка разрядится батарея.

Апокалиптические сценарии о нашествии роботов гораздо ближе к фантастике, чем к реальности.

Авторы выделяют пять основных моментов, которые нужно уметь оценивать любому разумному существу: где оно находится; что происходит вокруг него; что нужно делать прямо сейчас; как этого достичь; что нужно делать в течение более длительного срока для достижения имеющихся целей. Все эти вопросы должны рассматриваться постоянно в виде непрерывно повторяющихся циклов.

В сфере ИИ прогресс наблюдается только в одних частях цикла, другие остаются без решений.

Действительно разумные машины должны обладать здравым смыслом и быть гораздо более надежными, чем существующие сегодня системы

Авторы считают, что если наша цель — создать искусственный интеллект, подобный человеческому, то нам нужно перейти от систем, использующих как основной инструмент обучения статистические корреляции, к системам, постигающим мир через базовое понимание, подобное человеческому. Машины должны обладать тем, что мы называем здравым смыслом — базовыми знаниями, обладания которыми мы ожидаем от всех людей. Это знания о том, как обычно ведут себя люди и объекты в разных ситуациях, как они используют предметы, что можно делать с разными вещами, что происходит и не происходит в различных ситуациях.

Чтобы создать ИИ, подобный человеческому, нужно заложить в машины те принципы, которые позволяют учиться и постигать мир людям: способность к абстракции, композиционности, причинно-следственные представления, понимание того, что объекты существуют в течение какого-то времени. Нужно заложить в искусственные системы основы в виде понимания времени, пространства и причинности. Поэтому при создании ИИ компьютерные науки должны обогащаться знаниями из других дисциплин, в том числе когнитивных наук.

По мнению авторов, решить задачу здравого смысла и глубокого понимания крайне сложно, но только это поможет нам создать действительно разумный ИИ.

***

В своей книге Гэри Маркус и Эрнест Дэвис рассказывают широкой аудитории о том, что не так с современным подходом к искусственному интеллекту и почему он не приведет нас к созданию действительно разумных машин. Авторы критикуют глубокое обучение за его узость и призывают скептично относиться к громким заявлениям как о прорывах, так и об опасностях ИИ. Пока нам рано беспокоиться о том, что интеллектуальные машины захватят мир, гораздо больше нужно опасаться последствий слишком большого с нашей стороны доверия слишком глупым системам.

Обзор книги подготовлен сервисом ключевых идей литературы по бизнесу и саморазвитию MakeRight.ru.

0
12 комментариев
Написать комментарий...
Алексей Зиборов

Уже встречал данную книгу, но все откладывал. Спасибо за статью. Пошел читать оригинал. Заинтриговали.

Ответить
Развернуть ветку
Georgy Uvarov

Просто мозг на порядок сложнее нейросетей. Некорректно сравнивать нейрон мозга и "нейрон" нейросети. Так что и по количеству нейронов мозг на порядки больше, и по сложности самого нейрона сложнее

Ответить
Развернуть ветку
Pixel Lens

На хабре есть хорошая статья - https://habr.com/ru/post/445420/

Суть в том, что мозг представляет собой нейросеть (из нейронов).

И каждый нейрон в свою очередь тоже является нейросетью.

Таким образом, мозг это нейросеть нейросетей. Это next fucking level.

Ответить
Развернуть ветку
Карим Джунусов

Для создания искусственного интеллекта, нужно смотреть в суть появления и развития первой клетки. Как она сохраняла и отсеивала эффективную информацию, её стремлением было поглощение "еды", вследствие чего, она запоминала информацию, которая позволяет этого добиваться лучше, было это деление или забегая вперёд в развитии "диета", то есть вследствии такого стресса как голодание, запоминалась информация, что для питания регулярного, нужно выстраивать эффективную работу внутри системы. Первоначально у неё была только одна цель, питание. Условно говоря, в капле жира, структура которого запоминает порядок саморганизации как металлы, которые нагревают и они возвращают форму, информация об этом сохранилась в их структуре, в неё попадает атом, которому требуется атом другой структуры и он физически к нему притягивается, но при столкновении с нужным атомом в такой же капле жира, они не могут из-за оболочки соединиться и прилипают, а второму атому требуется, атом другой структуры, так формировалась замнутаяструктура, которая уже может запоминать информацию и стремиться "питаться", также условный атом (структура которая произошла в следствие физ или хим процесса, который попал в каплю, также как "наш" жир и металл, может запоминать информацию и воспроизводить при таком же воздействии, теперь она будучи не живой, также и атом притягиают электрон уже стремится питаться, запоминает и реагирует на все вокруг. Из первых воздействий, это разрушение оболочки, вследствии которой запомнилась информация в нашем атоме о последующем восстановление, когда соприкоснулась с другой такой-же структурой, порядок действий при заполнении своей жировой оболочки и следующем таком же воздействии уже воспроизводит это порядок вследствии чего затрачивает энергию и требует больше энергии, она начинает сильнее вытягивать из оболочки это вещество и притягиваться к другим рядомнаходящимся таким жировым каплям. Когда в следующий раз она разрушается, она уже может восстановиться. Также вследствии своего электрического зарядка, информация о внутреннем расположении становилась общей с другой нашей клеткой и как в принципе сообщающихся сосудов стремилась к общей, и уже другая клетка умеет также и стремятся и к одной внутренней структуре. Дальше нужен стрессор для деления, это условно может быть узкое отверстие при проникновении в которое она вытянулась и порвалась, в каждый момент времени прохождения через щель структура из-за стремления к организованнсоти, также равномерно распредяла внутреннюю составляющую клетки и оболочки разделив её симметрично на две клетки и уже новая клетка может воспроизвести эту информацию при соприкосновеннии с определённой структурой, а это у нас питание, деление, запоминание информации и реакция на неё.
В течение времени, выживали и обьединялись только клетки с разной и эффективной информацией, так как они могли восстанавливаться, питаться и другие эволюционные приколы. Также вследствии стремления к питанию образовались контролирующие клетки, которые стремились соприкоснуться с более питательной клеткой такого состава в новой прилипшей структуре, в следующий она делает также при появлении новой структуры и также равномерно между ними распределяется информация и нужная электрическая энергия. Главный критерий разумной жизни, это стремление к питанию антихрупкость и адаптация, что наша неживая клетка уже умеет.
Точно также нужно дделать упор и в создании ИИ. Дать ему смысл развития в виде питания, и научить правильно реагировать на стрессоры, перебирая внутренний код и отыскивать эффективное для цели действие. Начинать обучение ии я думаю нужно с программирования, а не чтения книг. Чтобы он мог менять и улучшать свою структуру, стремясь к эффективному развитию. Он должен в процессе базового обучения человеком после создания, так как изначально у него нет физических свойств, научиться прокачивать свою адаптацию до нужного базового уровня. Далее развитие он продолжит сам. Так что, все живое по сути неживое, просто физ или хим реакция эффективно использующая энергию. Мы можем получить джоулей на целый день из двух бананов, благодаря правильному реагированию клеток с помощью прошлого опыта.

Насколько интересная теория?

Ответить
Развернуть ветку
Карим Джунусов

В общем: современному ИИ нужно дать один основной принцип, на котором он будет эффективно встраивать приобретённые информацию внутри и эффективно на неё реагировать

Ответить
Развернуть ветку
Georgy Uvarov

Есть уже называется обучение с подкреплением. Когда у сети есть сенсоры и ей дают бонусы или штрафц за действия. Проблема в том что их надо очень и очень долго обучать. Ну и опять же они банально уступают мозгу количеству логических элементов

Ответить
Развернуть ветку
Карим Джунусов

Но зачем бонусы, она сама должна выделять эффективные действия, запоминать и воспроизводить. Действия, которые требует её самый начальный код. Она должна работать над самоорганизацией и самопрограммированием, постоянно улучшать свою структуру и становиться эффективнее с каждым полученным байтом.
Как ребёнок, когда начинает плакать, его кормят, в следующий, чтобы поесть, он поплачет. Когда это не сработает, будет искать другой способ, успокоиться и его опять покормят, дальше будет находить и использовать наиболее эффективные взаимосвязи

Ответить
Развернуть ветку
Georgy Uvarov

Бонус это вознаграждение за удачное действие. Да ты абсолютно точно описал как работает эта сеть. В твоём случае бонус это утоление голода

Ответить
Развернуть ветку
Карим Джунусов

Получается с ситуацией с человеком в коробке, который не понимает китайский, но у него есть скрипты ответов. Он принимает вопрос на китайском, отвечает по скрипту иероглифами, человек получает правильный осознанный ответ, и даёт системе бонус, но система так и не начала понимать китайский, и далее она только постоянно выбирает наиболее лучший ответ, за который приходило больше плюшек. Но чтобы начать понимать, ей нужно найти взаимосвязи и оценить предварительно вероятность эффективности действия, если три человека посчитали ответ ИИ, что вода всегда жидкая, а четвёртый неверным. В след. раз она ответит, что всегда жидкая. Но у неё не будет стимула понять суть вопроса, как человек. Он также как ИИ, может посмотреть такой вопрос в интернете, увидеть картинки, оценить заранее полезность и враждебность предмета, так как, если оценить неадекватно, это может убить. Если не до конца прочитал вероятность, ты задашь вопрос в поисковик по другому. Чтобы машина так научилась делать, она должна начать с программирования я считаю. Когда ты ей даёшь новое задание, типа "выведи на экран привет мир", а она его не понимает, и начинает искать в технической литературе ответ, как выводить на экран текст, видит условно printf, вставляет в выделенный участок своего кода, проверяет надпись вывелась, эффективность таких действий, можно оценить для ИИ. Так как она, уже сама стала лучше, поменяла свою структуру, научилась новому.
В общем, я хотел обратить внимание, на то, что рассмотрение проблемы ИИ, стоит начать с самой сути, если ей не надо разбираться в чем-то новом, так как это не повлияет на её основную цель, она и не должна это делать, так как это неэффективно. ИИ нужно стремиться в постоянному поиску новых функций для применения, нахождения взаимосвязей между ними и оценивать их эффективность.
Я не крутой проггер, поэтому все мои мысли рассуждения, не принимайте строго

Ответить
Развернуть ветку
Карина Сульянова

Книга очень хорошая , я уже её прочитала , всем советую

Ответить
Развернуть ветку
Илья Попов

Можно сказать, что они сломали мне кайф. Каждую статью и фразу про ИИ жду с нетерпением и читаю с большим интересом а это, как холодную воду вылили на голову.🙂

Ответить
Развернуть ветку
Denis Brykov

"нам нужно перейти от систем, использующих как основной инструмент обучения статистические корреляции, к системам, постигающим мир через базовое понимание, подобное человеческому"

О чем они говорят? Что за базовое понимание? Какой-то захардкоженный набор if-ов, реализующий общие принципы познания?

Разве не логика единичного нейрона, топология сети, набор фич на входе, и т.п., является тем что определяет это "базовое понимание"?

Человек - такая же статистическая система, только имеющая более широкие возможности обработки и получения информации извне. К тому же система, многократно оптимизированная в ходе эволюции.

Странно было бы, если бы удалось за столь короткий срок и с меньшими вычислительными и сенсорными возможностями сразу создать что-то соизмеримое с человеческим интеллектом.

Ответить
Развернуть ветку
9 комментариев
Раскрывать всегда