{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

Математика искусственного интеллекта

Наше второе интервью с выдающимся математиком и основателем аналитического центра 10data Сергеем Тищенко посвящено его основной специальности сразу в двух ее проявлениях.

Первый же вопрос наметил задачу кластеризации самого понятия «искусственный интеллект».

1. За счет чего искусственному интеллекту удается вычислять свойства огромного числа объектов?

Возможно, скоро мы не будем относить к искусственному интеллекту и машинное обучение. Оно будет рассматриваться как обычный код, без сказочного «привкуса» ИИ

Стоит сразу определиться, что называть искусственным интеллектом. Это понятие было введено достаточно давно и с тех пор многократно трансформировалось. Наше понимание искусственного интеллекта недостаточно определено, по крайней мере сейчас мало кто способен представить, на что будет похож настоящий искусственный интеллект — мечта многих, способная мыслить как человек или лучше, чем человек, этот супер-ИИ. То что нам известно, принятое по отношению к искусственному интеллекту — зачастую не является таковым. Нет еще ничего созданного, что бы действительно повторяло и превосходило человеческий мозг во всех его проявлениях.

Тем не менее, никто не отменял способность машины к очень быстрым вычислениям, поэтому существенные достижения частично всё же есть. К примеру, распознавание образов и речи. В начале это был яркий пример достижений в области того, что в кавычках называется искусственным интеллектом. Сейчас многие уже не относят эти технологии к как таковому ИИ, настолько классической уже стала эта задача — теперь мы понимаем под ней обычный алгоритм.

И где эта грань — что мы считаем обычным алгоритмом, а что уже искусственным интеллектом? Может быть, он себя еще никоим образом и не проявил. Или наоборот, посмотрим шире и будем относить любые программы, в том числе и нашу первую программу из далекой молодости, “Hello world!”, к работе ИИ. Это широкое поле, где сложно провести какую-то границу, а самое интересное, что ее проведение — подчас тоже задача искусственного интеллекта.

Сам вопрос касается в первую очередь вычислительной способности и эффективности алгоритмов. Алгоритмика, наука о компьютерных вычислениях за последние 50–70 лет продвинулась вперед семимильными шагами. Представьте себе 50-е годы, когда еще Колмогоров считал невозможной сортировку данных быстрее, чем за квадратичное время. И вот появился квазилинейный алгоритм сортировки Джона фон Неймана, показавший, что можно практически за линейное время отсортировать телефонную книгу из миллиона записей. Многие задачи из числа не решаемых на машинах того времени вдруг стали реализуемы.

Самый правильный ответ здесь — качество самих алгоритмов и развитие вычислительной мощности. В 90-е и начале 2000-х каждый год появлялось всё новое и новое поколение процессоров, работавших в 2, в 4 раза быстрее предыдущих. Но мы подходим к границе возможного, и сейчас этот скачкообразный рост мощности замедляется. Это не отменяет возможной революции в строении машин, что можно видеть на примере того же квантового компьютера.

Итого, есть два первоочередных фактора — технологии построения вычислительной техники и алгоритмы. И те, и те совершенствуются.

- Всплывает существенный вопрос терминологии: насколько нужно быть осмотрительным в использовании понятия «искусственный интеллект» и насколько важно отличать друг от друга его составляющие…

Естественно, та же нейросеть — один из способов смоделировать работу машины наподобие работы того, что может быть схоже с человеческим разумом, или, по крайней мере, быть ядром, вокруг которого можно строить подход машинного решения задач. Всё зависит от того, что мы называем ИИ. Нейросеть в 21-м веке — яркая вспышка статистических методов машинного обучения. Это характеризует последние годы развития искусственного интеллекта. Но тем не менее, прошлое показывает нам: чем большего прогресса мы добиваемся, тем более стандартными становятся подходы. Фронт науки ступает дальше, и она становится для нас всё более привычной. Как мы говорили, распознавание образов уже можно не относить к ИИ: возможно, скоро мы не будем относить к нему и машинное обучение. Оно будет рассматриваться как обычный код, без сказочного «привкуса» искусственного интеллекта.

2. Чем абстрактность такой науки как математика помогает и, наоборот, мешает машинному обучению?

У математики есть очень интересное свойство, уходящее в самое сердце философской дискуссии. Здесь уместно вспомнить о двух теоремах Гёделя о неполноте математики. Всегда можно сформулировать такую проблему, называемую проблемой Гёделя, которая будет верным утверждением, но недоказуемым в рамках какой-либо математической непротиворечивой системы. Это сердце продолжительных и до сегодняшнего дня не завершенных дебатов о возможности или невозможности искусственного интеллекта превзойти человеческий разум. Теорема говорит нам, что машина, работающая в рамках строгой логики и не допускающая парадоксальных ошибок (например, машина Тьюринга), никогда не сможет доказать тем не менее верное утверждение Гёделя. Существуют задачи, решаемые, допустим, человеком, чья логика иногда может быть иррациональной, и ни коим образом не доступные машине.

Отсюда и вопрос о «вмешательстве» абстрактности математики в машинное обучение — оно и помогает, и мешает. Посмотрим на машинное обучение как на ИИ, потому как само по себе оно есть более узкое понятие. Если мы привязываем ИИ к строго алгоритмическому поведению без каких-либо отклонений и противоречий, то он будет ограничен, а потому уступит человеческому мозгу. Конечно, не во всем — мы видим, насколько мощны способности машин к вычислениям, и в чем-то они превзошли человека и отдельного математика. Условного Обломова те же роботы Google, которые занимаются тем, что предлагают ему ролики на YouTube, сильно превзошли по своей функции. А совершенного математика, способного решить все задачи, решавшиеся его когда-либо жившими предшественниками, скажем, математика с большой буквы М, интеллектуально одолеть ему не удастся — это «М» никогда не может быть превзойдено. Математика сверхабстрактна, но если предположить, что однажды она выйдет за пределы своей неполноты, то ИИ сможет дать бой этому Математику.

3. На каком уровне разработчику ИИ нужно знать математику и какие ее разделы актуальны в сфере нейронных сетей?

Посмотрим с практической стороны. Тому, кто работает с пакетами готовых решений — обычному ИИ-разработчику — не нужно обладать никакими навыками в области математики. К применению нейронных сетей не требуется даже высшего образования, это чисто техническая задача.

С другой стороны, можно понимать под разработчиком человека, который не просто настраивает чужой алгоритм, применяя готовые библиотеки, чем занимаются тысячи программистов, а того, кто разрабатывает новые методы, всё более совершенные алгоритмы, или применяет нестандартный подход к задачам — тот, кто живет на самой передовой линии и не является чемпионом по распаковке уже существующей библиотеки, а совершает то, что еще никогда и никем не было сделано. Вот ему требуется прекрасное знание математики, интуиция и хорошая математическая тренировка.

Из областей математики такому разработчику в первую очередь полезны статистика, в широком смысле комбинаторика — дискретная математика, а вместе с ней оптимизация. Эти направления смогут подтолкнуть его интуицию к правильным идеям.

А задачи с применением нейронных сетей могут выполнять и школьники, в чем мы можем убедиться, глядя на конкурсы «Юниор» и «Авангард». То, что высшее образование перестало быть для этого необходимым — хорошо, задачи перестали иметь элитный, а знания — сокровенный характер, теперь они доступны не только «небожителям» из лучших научных лабораторий. Прогресс вышел из колыбели фундаментальной науки, перешагнул этап прикладной науки и находится на этапе внедрения и дизайнерского решения, производства технологий. Поэтому мы так широко и говорим о цифровой экономике и ИИ, хотя о самом ИИ речь пошла чуть ли не 150 лет назад в литературных футуристических произведениях. В пятидесятые годы сложилась сама наука с изучением возможной и методов искусственного интеллекта, а сейчас мы так ярко о ней говорим потому, что она уже пришла в прикладную область применения решений. Она доступна уже далеко не ученым, а широкому рынку.

4. Какую литературу вы бы рекомендовали к изучению в данной сфере?

Эта литература рекомендуется возрастной категории старших классов школы и, может быть, первого курса университета, так как во время обучения студенты быстро овладевают навыком поиска литературы. У всех уже состоявшихся разработчиков есть любимая книга по искусственному интеллекту — их написано тысячи.

Прежде, чем читать что-то широкое и смотреть на ИИ с «ботанической» стороны, пытаясь перебрать все его проявления, я советую молодым читателям сфокусироваться на одном направлении — распознавании образов и речи, нейронным сетям, статистическим подходам. По-хорошему, следует начать с изучения алгоритмики. Любое применение искусственного интеллекта потребует такого взаимодействия с ним. Полезно всё, что касается сложности вычислений, принципов рекурсивного, императивного программирования. В переводе на русский язык есть очень хороший учебник по алгоритмике от MIT Press — издательства Массачусетского технологического института.

Главная цель такого чтения — крепко стоять на ногах в вопросах Computer Science. Дальше нужно сфокусироваться на любом конкретном приложении ИИ, не пытаясь угнаться за всеми его направлениями, потому как поле этой науки выходит даже за рамки самой математики. Оно касается и философии, и экономики, а если мы говорим о попытке повторить человеческий интеллект — это еще и психология. Расширяться в своим исследовании стоит постепенно.

- Вообще, роль книг в изучении информационных технологий можно назвать достаточно спорной, потому как это одна из немногих областей науки, где без эмпирического ознакомления, без написания кода и составления алгоритмов практически невозможно усвоить теорию.

Верно, например, книги по высшей алгебре и анализу удобны для учителя в школе, чтобы он мог быстро что-то подсмотреть и провести урок, а читать сухой текст из 500 страниц формул и доказательств теорем — значит иметь более чем особый склад ума. И тем менее, всё легко познается на примерах, выполнении большого количества задач. Такая тренировка позволяет легко освоить и интегрирование, и матричные преобразования.

Информатика в этом смысле еще «хуже» — она гораздо быстрее меняется. Если, скажем, фундаментальная математика последние 300 лет почти, говоря с большой натяжкой, не менялась, то информатика каждые три года становится вообще новой. Чтобы не задавать абсурдный вопрос «на что была похожа информатика 300 лет назад», спросим себя про последние 30 лет. Ее преподаватель должен быть вечно молодым и все время впитывать новое, а недостаток уже человеческого интеллекта в том, что с возрастом он замедляется в своей способности к изучению. Постоянно меняющийся и требующий практики, этот предмет является чуть ли не единственным, располагающим очень малым количеством книг для его познавания. Представьте: обладающий хорошим опытом, а значит и немолодой, человек берется написать книгу в своем пиковом времени о том, какой была информатика, когда она была ему максимально интересной, и изложенный им материал будет неизбежно отставать от реальности.

0
Комментарии
-3 комментариев
Раскрывать всегда