Почему ИИ сложнее, чем кажется

Этот пост посвящен конкретной статье, которая называется «Why AI is Harder Than We Think» («Почему ИИ сложнее, чем мы думаем»). Она про то, как исследователи делали чересчур оптимистичные предсказания и к чему все это привело.
В статье последовательно описаны четыре заблуждения:

  • существует диапазон технологий, в котором мир движется от слабого ИИ к сильному;
  • то, что просто для человека – просто для ИИ (и то, что сложно для человека, сложно для ИИ);
  • принятие желаемого за действительное из-за того, что вычислительные механизмы называют так же, как и человеческие когнитивные функции (wishful mnemonics);
  • весь интеллект заключен в мозге.

Далее я буду следовать структуре статьи.

Введение

Много раз мы видели заголовки в духе «К 2020 году на дорогах будет десять миллионов беспилотных автомобилей». Потом мы много раз не видели на дорогах беспилотных автомобилей (разве что в рамках пилотного проекта, простите за каламбур). Еще были, я помню, статьи про скорое повсеместное использование продвинутых интерфейсов «мозг-компьютер», но прошли годы, а повсеместности пока не видно. Каждый раз подобные заголовки вызывают энтузиазм и приток финансирования в новые области, а потом каждый раз они не превращаются в реальность (во всяком случае, к тому моменту, когда это было обещано). Инвесторы разочаровываются, объем финансирований падает, разработки замедляются. Описанные процессы называются «весна ИИ» и «зима ИИ». Мы не будем прямо сейчас вдаваться в подробности, лучше оставим разговор о смене времен года на какой-нибудь другой раз. А пока поговорим о том, что стоит за этой сменой.

Заблуждение 1: существует непрерывный диапазон технологий от слабого ИИ к сильному

Это заблуждение касается того, как мы воспринимаем новые технологии в области ИИ. Появление новых архитектур или подходов к обучению или решение задач, которые раньше не мог решить ИИ, – все это зачастую рассматривается как шаг в сторону «настоящего» или «сильного» ИИ – такого, который был бы равен человеческому интеллекту или превосходил бы его. Инженер Стюарт Дрейфус (Stuart Dreyfus) сравнил эту идею с идеей о том, что первая обезьяна, которая залезла на дерево, двигалась в сторону высадки на луну.

<i>(Мечтающая о луне обезьяна нарисована с помощью ChatGPT)</i>
(Мечтающая о луне обезьяна нарисована с помощью ChatGPT)

На деле, конечно, все не так линейно. Какие-то технологии станут тупиковыми ветвями эволюции, другие могут откатываться назад в терминах эффективности (я недавно у себя в телеграме писала про деградацию глубоких нейросетей, например).
Сегодня прогнозы экспертов снова выглядят оптимистичными: в 2023 году Machine Intelligence Research Institute (Институт исследования машинного интеллекта) опросил почти три тысячи экспертов, которые публиковали качественные статьи в серьезных и уважаемых журналов из сферы ИИ. В среднем эксперты предсказали, что с вероятностью в 10% ИИ сможет решить любую задачу лучше и дешевле, чем человек, к 2027 году. Вероятность достичь того же к 2047 году оценили в 50%. Вопрос в том, стоит ли верить экспертам.
Ответ в том, что, похоже, не стоит. Ф. Тетлок (Philip Tetlock) с 1984 по 2003 год собрал более 80 000 прогнозов от 284 экспертов, проанализировал их, сравнил с реальностью и пришел к выводу о том, что эти предсказания не более эффективны, чем случайное угадывание.
О заблуждениях экспертов писал и Д. Канеман (книгу, в которой он про это писал, и еще некоторые полезные книги можно найти тут). Вероятно, экспертам, которые увидят этот пост, захочется кинуть в меня стулом. Но не спешите стрелять в пианиста! Прочитайте лучше пока книгу, а я потом еще пост напишу про экспертов и их предсказания.

Заблуждение 2: что просто для человека, просто для ИИ

Не задумываясь, мы предполагаем, что если какая-то задача просто решается для нас, то и компьютер с ней легко справится. На практике такое тоже бывает, но часто бывает и обратное. Например, мы, в отличие от ИИ, не испытываем затруднений, когда нужно найти и назвать предмет из окружающего пространства, двигаться по улице, не сталкиваясь с другими пешеходами или вести светскую беседу (ладно, с последним мы можем испытывать затруднения, но все равно не такие, какие испытывает компьютер). ИИ же может решать сложные математические задачи, быстро научиться играть в шахматы или переводить текст на десятки языков (мы тоже можем, но нам потребуются годы тренировок).

Это называется «парадокс Моравека» (Moravec's paradox; книгу, в которой Х. Моравек описывает свои идеи, можно бесплатно прочитать здесь, нужно только зарегистрироваться; через VPN можно еще тут достать). В общем виде он формулируется так: компьютер сравнительно легко научить выполнять задачи, с которыми работает взрослый человек (игра в шахматы, решение математических задач), но сложно или невозможно обучить навыкам, которыми овладевает годовалый ребенок (восприятие окружающего мира, движение).

<i>(Изображение создано с помощью ChatGPT)</i>
(Изображение создано с помощью ChatGPT)

Мы часто забываем про сложность собственного мозга, потому что большая часть процессов в нем происходит бессознательно. Даже когда мы принимаем обдуманные, казалось бы, решения. И мы не до конца пока понимаем, как вообще процесс принятия решений работает в нашем мозгу: замерить активность каждого нейрона на данном этапе развития технологий невозможно. Поэтому очень непросто все это записать математически и научить компьютер вести себя похожим образом (в том числе непросто с точки зрения вычислительных затрат).

Заблуждение 3: "Wishful mnemonics"

Wishful Mnemonics – это, кажется, не только для ИИ характерно, а в целом для работы с любыми проектами. Пример Wishful Mnemonics – термин «машинное обучение». Строго говоря, процесс машинного обучения не идентичен человеческому обучению. Важное отличие заключается в том, что человек может применять полученные знания в разных областях, в то время как искусственные модели нужно обучать для этого еще раз (это называется transfer learning, область, которая изучает процесс переноса «знаний» нейронных сетей на решение новых задач).
Из-за использования терминов, в которых мы обычно говорим о людях, появляется соблазн рассуждать о том, какие у ИИ намерения или цели, что он думает или понимает, хотя, конечно, ничего он не думает и намерений у него нет.
Конечно, это все не специально получается. Сказать, что некоторая нейросеть «понимает» текст быстрее и проще, чем расписывать длинную описательную конструкцию с векторным пространством, извлечением признаков и преобразованиями матриц. А дальше наш коварный сложный мозг подменяет наше восприятие технологии восприятием слова, которым она названа.

<i>(Изображение создано с помощью ChatGPT и вдохновлено той самой известной <a href="https://stock.adobe.com/nl/images/3d-rendered-medically-accurate-illustration-of-a-human-brain-eyes-and-arteries/273813992" rel="nofollow noreferrer noopener" target="_blank">картинкой</a>, где мозг с глазами)</i>
(Изображение создано с помощью ChatGPT и вдохновлено той самой известной картинкой, где мозг с глазами)

Короче, сам придумал, сам напугался (или восхитился). Ничего нового.

Заблуждение 4: интеллект – это мозг

Вы уже в курсе, что выражение «нижней частью спины чую» – это не совсем пустая метафора? Если вдруг нет, докладываю: ученые, которые занимаются мозгом, уже некоторое время как говорят, что наше тело активно участвует в мыслительных процессах. Например, кишечник напрямую связан с мозгом и влияет на настроение, ментальное здоровье и когнитивную деятельность.
У искусственных нейросетей кишечника нет (как и опорно-двигательной системы и чего угодно вообще, кроме самой нейросети). Значит, какая-то часть когнитивных функций им недоступна, и это тоже важно учитывать. Мы не можем притвориться, что можно отделить голову от тела и заставить ее полноценно работать.

<i>(Изображение создано с помощью ChatGPT)</i>
(Изображение создано с помощью ChatGPT)

С заблуждением о том, что весь интеллект сосредоточен в мозге, связано еще одно – о том, что эмоции – это искажения мышления, от которых нужно избавиться, и тогда получится интеллект нового порядка, превосходящий человеческий. На самом деле, эмоции тоже важны в процессе обучения и принятия решений – и вообще в любых мыслительных процессах.

Заключение

Короче говоря, как всегда все сложно. ИИ развивается по сложной и малопредсказуемой траектории, мозг у нас сложный и недоизученный, а мы пытаемся прогнозы прогнозировать с умным видом. Это не грех, конечно, но и не самое эффективное занятие.

В любом случае, прочитайте статью «Why AI is Harder Than We Think» целиком и вызывайте ее в своей памяти каждый раз, когда в СМИ и соцсетях снова будут появляться эмоциональные заголовки.

11
3 комментария

(я недавно у себя в телеграме писала про деградацию глубоких нейросетей, например

Неверная формулировка. Деградации нет, глубокие сети вполне себе развиваются. ResNet появились как проверка гипотезы - "насколько глубокими могут быть глубокие сети", и для метода борьбы с "затуханием градиентов ".

1
Ответить

Термин "деградация" не связан в данном случае с развитием. Речь идет об увеличении ошибки, не связанном с переобучением. Отсылаю к посту в телеграме)

Ответить