Что такое интеллект и почему он искусственный

Сегодня 1 октября, а это значит, что лучшего времени написать про ChatGPT o1 придумать сложно. Однако, чтобы понять, почему очередной релиз от OpenAI действительно важен, я бы хотел сделать краткий экскурс в историю и в текущее положение дел в области искусственного интеллекта (AI / artificiial intelligence).

Человеческий интеллект

Но что такое интеллект в целом? Этот вопрос тоже не такой однозначный, но можно взять определение из психологии, которое помимо прочего определяет интеллект как:

  1. Адаптация к новым ситуациям
  2. Способность к обучению на основе опыта
  3. Использование знаний для управления средой

Получается, что если есть компьютер или программа, которая может адаптироваться к новым ситуациям, обучаться на них и использовать эти данные в будущем, то это уже можно назвать:

Искусственный интеллект

Примерно так и описал искусственный интеллект в своей работе «Вычислительные машины и разум» Алан Тьюринг в 1950 году. В ней он заменяет слово «думать» применительно к компьютеру на способность компьютера совершать те же действия, что может совершать человек (например, писать текст или управлять чем-либо).

В этом основная суть теста Тьюринга. В нем экзаменатору, который получает два текстовых сообщения, необходимо определить какое из сообщений было написано человеком, а какое — машиной.

У данного теста есть всего лишь один недостаток: он четко не формализован, поэтому его невозможно «пройти» с научной точки зрения. Однако, совершенно ясно, что с момента появления ChatGPT данный тест в его изначальной формулировке потерял актуальность. Поэтому сейчас большое внимание уделяется разработке новых, более комплексных тестов для проверки моделей искусственного интеллекта.

Причем здесь ChatGPT

ChatGPT использует в своей основе большую языковую модель (LLM / large language model), которая на вход и выход получает текст.

Всплеск интереса к ChatGPT случился после выпуска модели версии 3.5, которая очень круто сочиняла текст, но не справлялась с более сложными рассуждениями, где требовалась логика.

Пока OpenAI (разработчик ChatGPT) работали над новой версией модели, исследователи изучали поведение уже доступной. На удивление оказалось, что модель может вести себя «более умно», не требуя дополнительного обучения. Вместо этого достаточно было напомнить модели о том, что она может порассуждать.

Так появился подход цепочки мыслей (CoT / chain of thought)

Идея данного подхода в том, что при подаче на вход запроса, вместе с ним добавляется предложение вроде «Давай подумаем над этим шаг за шагом». В результате это заставляет модель генерировать более длинный текст, в котором она сама получает для себя ответ.

Например:

Запрос:

Я пошел на рынок и купил 10 яблок. Я отдал 2 яблока соседу и 2 ремонтнику. Затем я пошел и купил еще 5 яблок и съел 1. Сколько яблок у меня осталось?

Ответ:

11 яблок

С применением CoT:

Запрос:

Я пошел на рынок и купил 10 яблок. Я отдал 2 яблока соседу и 2 ремонтнику. Затем я пошел и купил еще 5 яблок и съел 1. Сколько яблок у меня осталось? Давай подумаем шаг за шагом. <== Призыв "подумать"

Ответ:

Сначала у вас было 10 яблок. Вы отдали 2 яблока соседу и 2 ремонтнику, так что у вас осталось 6 яблок. Затем вы купили еще 5 яблок, теперь у вас 11 яблок. Наконец, вы съели 1 яблоко, так что у вас осталось 10 яблок. ^^^^^^^^^ Верный ответ

Вот такие чудеса. Здесь важно то, что данный ответ получен от одной и той же модели без каких либо модификаций или дополнительной тренировки.

В чем суть ChatGPT o1

Основная идея новой модели o1 в том, что ее не нужно заставлять «думать» — она это делает сама. Конечно, внутри это устроено сложнее, чем пример выше, но основной принцип такой же. Рассуждение по шагам значительно увеличивает качество ответа модели, однако это становится заметно только на сложных запросах.

Например, это очень хорошо заметно если нужен «аналитический» ум, когда задачу можно расписать по шагам, как например в программировании, математике или других науках.

Однако, если использовать ее для творческой работы, такой как сочинение текстов или разговора в диалоге (например, через голосовой режим), то на мой взгляд в o1 на текущий момент смысла мало и не до конца понятно, будет ли это актуально в принципе для более простых задач. Здесь, я думаю встает вопрос об экономической целесообразности использования больших моделей в целом.

Поэтому сейчас я бы рассматривал o1 как альтернативу, а не замену текущим моделям. В настоящий момент лично я использую ее только для задач, где нужен глубокий анализ и точность, такие как программирование.

А какой ваш опыт использования o1 и искусственного интеллекта в целом?

Если вам понравилась статья — поставьте лайк 🔥 или напишите комментарий. Так я пойму, что подобные истории интересны и буду писать больше таких статьей.

В свободное время в своем блоге «Код без тайн» я пишу о веб-разработке, информатике и технологиях, которые меня вдохновляют (искусственный интеллект, дизайн и многое другое).

11
7 комментариев

Мал он ешо на такие вещи размышлять, нужно немного подрасти)))

1

Пусть учится, в начале часто плохо получается 😁
Кстати, видели последние попытки использовать подобный подход для научных исследований? Очень удобно, когда перебор и анализ большого количества вариантов можно автоматизировать

Тем неимение многие фанаты ИИ утверждают что o1 и с простыми текстами справляется лучше. Думаю он быстро заменит LLM

Так ведь и то и другое - это языковые модели, то есть LLM 😁

На мой взгляд сейчас в сфере ИИ идет смещение к агентскому подходу, когда моделям дают инструменты, чтобы они могли что-то сделать, а не только генерировать текст.

Здесь как раз и становятся заметными недостатки текущих моделей, которые пытаются решать проблему без предварительного планирования.
o1 - это первый публичный продукт и скорее всего со временем способность планировать у моделей будет развиваться всё больше.

1