{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

FractalMath достиг 100% точности в решении математических задач

Привет, мы релизим публичное демо нашего FractalMath агента - это бот, который научился решать математические задачи на арифметику со 100% точностью и стабильно. В этой статье мы сравним бота с ChatGPT и покажем, что мультиагентая система FractalGPT достигла SOTA качества в этой задаче и превзошла все prompt техники для LLM.
Бот доступен всем в Телеграм.

Кадр из фильма Ex machina ("Из машины", 2014). Калеб тестирует робота Ава. 

Что такое FractalMath агент

Математический агент это бот, в который вы отправляете простую задачу и получаете ответ, например:

Перевод: "Два друга играли в онлайн-видеоигру, когда к игре присоединились еще два игрока. Если у каждого игрока было по 8 жизней, сколько всего жизней у них было?"

Мы в компании ФракталТех занимаемся развитием новой парадигмы искусственного интеллекта - создаем мультиагентый ИИ. Впервые мы заявили о том, что простые LLM с техниками промтинга зашли в тупик в нашем анонсе проекта в марте 2023го.

На ИИ конференции Ai Journey (которую организует Сбер) в докладе 22го ноября мы впервые показали FractalGPT Math агента, который решает математические задачи с почти 100% точностью (99.8%).

FractalMath - это мультиагентная система(англ - MAS, multi-agent system), которая использует нескольких агентов для решения задач по математике (арифметике - на сложение, вычитание, умножение, деление) и добивается потрясающих по точности и стабильности результатов - за счет "общения" агентов друг с другом и построения стратегии. В докладе у нас получился результат 99.8% правильных ответов - недавно мы его улучшили и получили 100% - проверить это может каждый в нашем боте в Тг, просто возьмите любую задачу на англ. языке из датасета Multiarith (test) и отправьте ее боту:

Бот хорошо понимает задачи только на EN языке - на RU мы не гарантируем высокое качество решения

Видео доклада "Автономные AI агенты: тренды индустрии и почему промты не всесильны", на сайте конференции, в архиве докладов:

ссылка на видео: https://aij.ru/archive?albumId=2&videoId=293

В Vk.com:

https://vk.com/video-22522055_456243333
(В докладе есть пример про бабушку и яблоки, как смешно ошибаются все любимые нами ChatGPT, Claude 2, YandexGPT, GPT4.)

Ниже мы протестируем возможности FractalMath, сравним его с ChatGPT и покажем преимущества агентного подхода.

🏆 Что умеет FractalMath и почему это важно

FractalMath агент решает задачи из датасета MultiArith 100% правильно и при этом дает не только правильный ответ, но и правильный ход решения - и это отличное достижение.
Вот фишки мультиагентой системы FractalMath:

  1. Точность. Решает задачи на арифметику 100% правильно.
    Не 99%, и не 99.5%, и именно 100% - это максимальный возможный результат. При этом мы не писали никакого скрипта и никак не хардкодили способы решения, они создаются на лету. Такое качество недостижимо практически ни с какой LLM и ни с какими техниками промтинга.
  2. Эмерджентность. Обобщающее свойство сохранилось.
    Так же, как и LLM она умеет теперь решать этот класс задач, а не угадывать, опираясь на вероятностное распределение генерируемых токенов, как это делает LLM. Это важно, потому, что создавая ИИ мы не хотели бы сделать простую экспертную систему, заточенную на решение однотипных задач - мы хотим получить универсальное, расширяемое решение.
  3. Надежность. Ответы стабильны.
    От запроса к запросу ответ не меняется. А при этом уже мемом стала ненадежность ChatGPT - очень часто она генерирует разные решения на дословно одну и ту же задачу, даже с такими простыми задачками, которые решит каждый третьеклассник - это совершенно неприемлемое поведение. По нашим наблюдениям на 1 из 6 запросов ChatGPT дает другое, неправильное решение. В FractalMath также используется LLM, но надежность ответов на один и тот же запрос примерно в 20 раз выше, чем у ChatGPT.
    Такое высокое качество и надежность обеспечивает многоагентная система внутри - агенты договариваются, строят план и стратегию решения.
  4. Обучение как у ребенка.
    У мультиагентной системы совершенно другой принцип обучения: она учится как дети в школе. В процессе обучения учитель(или "родитель" -агент, пишущий решение) показывает на примерах стратегию, шаги и нюансы хода решения задачи, а ребенок(агент Стратег) запоминает их инварианты (это важно, когда от яблок и апельсинов мы учимся переходить к абстракции цифр).
    Таким образом в обучении не используется train часть датасета - вместо этого применяется аналог few-shot learning, но не текстах задач, а на специально созданных стратегиях решения этих задач, в которых присутствует в том числе и логический вывод.

Подробнее о системе логического вывода (нейросемантическом движке) можно прочитать в статье Захара на Vc.ru

Что внутри

В систему входят:

  1. Агент Мэтчер (Matcher). Устраняет избыточную информацию, не относящуюся к задаче.
  2. Агент Стратег (Планировщик). Строит стратегию решения.
  3. Агент Исполнитель стратегии (Optimizer, Solver).
  4. Агент Интерпретатор (Calc). Интерпретирует результаты, предоставленные ему другими агентами.

    Мэтчер, Стратег и Исполнитель стратегии вместе входят в состав модуля Логического вывода.

Общая схема работы MAS представлена ниже:

Схема работы мультиагентной системы FractalMath при решении арифметических задач

Схема обучения и тестирования

Создание саморазвивающихся автономных ИИ агентов приводит нас к тому, что в целом мы меняем сложившуюся парадигму, или схему обучения.
Типичная схема для LLM выглядит так:

  1. Сбор датасета
  2. Fine-tuning (или промтинг с few-shot: несколькими примерами)
  3. Тест на test части датасета

В мультиагентной парадигме схема выглядит иначе:

  1. Выбор задач
  2. Написание стратегии для нескольких выбранных задач
  3. Тест на test части датасета

Обучение проводилось на 5 сэмплах.

Мы провели тестирование на test выборке датасета MultiArith для того, чтобы иметь возможность проводить корректное сравнение с другими решениями на обычных LLM, которые тестировались на test.

При проверке на test система FractalMath показала 100% точность - показатель accuracy, все задачи были решены правильно. (Стоит отметить, что Логический модуль, показавший 100% из-за эффекта ошибки среднего может в редких случаях показывать результат на доли процента ниже)

В целом, решаемые задачи наверное так можно охарактеризовать:

  1. сложность - уровень 3го класса, без логарифмов, квадратных уравнений и интегралов)
  2. в каждой по 1-3 действия: сортировка конфет, передача яблок и пр.
  3. действия на сложение, вычитание, умножение, деление
  4. конечный результат это натуральное число
Датасет MultiArith

Сравниваем FractalMath и ChatGPT

Мы возьмем несколько задач и проверим самое важное - понимает ли действительно LLM свои собственные рассуждения и что будет, если мы немного поменяем условие задачи.

Кейс 1.
"question": " Chloe was playing a video game where she scores 9 points for each treasure she finds. If she found 6 treasures on the first level and 3 on the second, what would her score be? ",
"final_ans": "81"
Перевод: Хлоя играла в видеоигру, где за каждое найденное сокровище она получает 9 очков. Если на первом уровне она нашла 6 сокровищ, а на втором - 3, какой будет ее результат?

FractalMath верное решение и ответ
ChatGPT тоже дал верное решение и ответ

Задача, как мы видим очень простая, ее решит любой ученик 3го класса. Сейчас может показаться, что ChatGPT умеет решать такие задачи и можно спокойно ему их давать, ведь это не какие-то интегралы и теоремы.
- Как проверить "понимание", а не зубрежку?
- Легко: давайте добавим однотипные части условия и немного увеличим цифры - пусть каждый день Хлоя находила все больше сокровищ.

Новая формулировка: "Chloe was playing a video game where she scores 9 points for each treasure she finds. If she found 6 treasures on the first level and 3 on the second, and 100 on the third, 500 on the fourth, and 5555 on the fifth, what would her score be?"

FractalMath MAS решил задачу правильно (тест с разным количеством повторных действий):

ChatGPT "поплыл": у него простейшая арифметическая ошибка, которую трудно заметить, вместо 55476 он выдает за правильный результат 54476. И это не единичный случай.


Кейс 2.

Betty is saving money for a new wallet which costs $100. Betty has only half of the money she needs. Her parents decided to give her $15 for that purpose, and her grandparents twice as much as her parents. How much more money does Betty need to buy the wallet?
Перевод: Бетти откладывает деньги на новый кошелек, который стоит 100 долларов. У Бетти есть только половина необходимых ей денег. Ее родители решили дать ей на эти цели 15 долларов, а бабушка и дедушка - в два раза больше, чем родители. Сколько еще денег нужно Бетти, чтобы купить кошелек?

Эта задача чуть сложнее и ее нет в исходном датасете.
FractalMath MAS решил правильно, обратите внимание на переменные и рассуждения:

ChatGPT почему-то стал составлять уравнение и запутался в нем:

ChatGPT не смог решить простую задачу про кошелек и деньги

К сожалению, ChatGPT не проходит тест на вариативность условий задачи, и это обусловлено самой архитектурой трансформеров - они не предназначены для решения задач, требующих точности и вычислений.

Техники промтинга в Arithmetic reasoning

Решение математических задач - давняя мечта ИИ специалистов со всего мира. Раздел исследований, который занимается достаточно простыми задачами (не доказательством теорем, пределами, диф уравнениями, интегралами и комплексными числами) называется Arithmetic reasoning.

Например, в статье 2022 года Large Language Models are Zero-Shot Reasoners исследователи показали существенное влияние техник промтинга на прирост качества решения задач, в том числе и достаточно простых, из датасета MultiArith: "For example, Zero-Shot-CoT achieves score gains from 17.7% to 78.7% on MultiArith and from 10.4% to 40.7% on GSM8K. That’s a lot of performance gain!"

Table 3: Comparison of different baselines on MultiArith and GSM8K datasets by using the DaVinci-002 model if not specified.

Отметим, что именно техника промтинга (в данной статье Chain-of-Thoughts) делает основной вклад в прирост качества, а вот размер модели в 135, 175 или даже в 540млрд параметров не оказал решающего влияния на прирост качества.
Из это следует важный вывод: размер модели НЕ оказывает влияния на понимание логики в решении задач, модели не выучивают стратегии надежным образом. Это означает, что промтингом не получится достичь 100% точности.Практически никогда нельзя заранее понять, произойдет ли ошибка в данный конкретный момент или нет.Об этом исследователи писали еще в работе Sparks of Artificial General Intelligence: Early experiments with GPT-4 в марте 2023го.

В работе Better Zero-Shot Reasoning with Role-Play Prompting (август 2023) на датасете MultiArith авторы показали результат 97.3%. Однако вне датасета в тесте на реальных задачах процент правильных ответов будет ниже, он будет падать до 80 и даже 70%, в зависимости от того, насколько семантика задач будет отличаться от в общем-то шаблонных постановок.

Table 2: Accuracy comparison of Role-Play Prompting with Zero-Shot, Zero-Shot-CoT on each dataset. Better Zero-Shot Reasoning with Role-Play Prompting

Мы, в отличие от коллег из Google DeepMind которые, судя по последним новостям решили математическую задачу фактически методом перебора с помощью FunSearch - мы знаем, как наш FractalMath работает)

Эмерджентные свойства.

FractalMath научился решать похожие задачи с учетом инвариантов - даже если мы меняем имена на российские, изменяем последовательность и число действий (главное - не переусердствовать) - все равно стратегия строится правильно, а вероятность галлюцинаций кардинально ниже.

Кейс 3.
Илон Маск нырял в море за ракушками. В первый день он достал со дна 5 ракушек. А в следующий - на 10 больше. Скажи в итоге сколько у него жемчужин, если в каждой ракушке их было ровно по 3.

FractalMath правильно решил фантастическую задачу про Илона Маска и жемчуг, которой точно не было в датасете

Кейс 4.

Ex Machina - фильм про то, как не нужно тестировать ИИ

Caleb tested the robot Ava using the Turing Test. On the first day, he asked her 5 questions. The second day, 9 more than the first. On the third day, he didn't ask her any questions and just chatted with her about her master. On day 4, Ava tried to escape by cutting the power. On day 5, Caleb asked her 3 times as many questions as he did on day 1. How many questions did Caleb have time to ask?
Перевод: "Калеб протестировал робота Аву с помощью теста Тьюринга. В первый день он задал ей 5 вопросов. Во второй день - на 9 больше, чем в первый. На третий день он не задавал ей никаких вопросов и просто болтал с ней о ее хозяине. На четвертый день Ава попыталась сбежать, отключив электричество. На пятый день Калеб задал ей в 3 раза больше вопросов, чем в первый. Сколько вопросов успел задать Калеб?"
(эта задача - отсылка к фильму Ex Machina Алекса Гарленда)

Правильное рассуждение и ответ

FractalMath даже научился решать задачи более сложные, чем те, на которых он учился.

Что FractalMath пока не умеет решать

У текущего решения в следствие небольшого количества времени на разработку есть и ограничения, касающиеся в основном понимания стратегии.
В задачу про Калеба и Аву добавлена строка, в которой Ава сама задает ему вопросы. Эта информация пока не учитывается агентом Стратегии и приводит к не совсем верному решению.

Кейс 5.
Caleb tested the robot Ava using the Turing Test. On the first day, he asked her 5 questions. The second day, 9 more than the first. On the third day, he didn't ask her any questions and just chatted with her about her master. On day 4, Ava tried to escape by cutting the power. On day 5, Caleb asked her 3 times as many questions as he did on day 1. Ava then asked Caleb 100 questions. How many questions did Caleb have time to ask?

Правильного понимания нематериальности задаваемых вопросов можно достичь дообучением агента Стратега - он сможет понять концепцию объектов и процессов, так же, как он научился эмерджентно понимать концепт "производительности труда" - в задаче с ракушками и жемчугом.

FractalMath не решает многие несвойственные изученной стратегии задачи - и отказывается от решения

Можно ли взять open-source LLM

Даже лучшие опен-сорс модели, такие как Mistral 7b не дают надежды на стабильное и правильное решение:

Ответы Mistral 7b стабильно неверные

Выводы и proof-of-concept

В этой статье мы показали возможности FractalMath - сборки агентов, которая научилась решать математические задачи и обладает эмерджентными свойствами.
Мы думаем, что это одна из первых работ, в которой показывается преимущество многоагентного подхода перед техниками промтинга, которых на данный момент существую десятки. Важно также, что техники с написанием кода (например PAL, Program-aided Language Models) также не являются серебряной пулей - а это означает, что пока что, в задаче Arithmetic reasoning многоагентный подход - единственный, достигший абсолютного state-of-the-art качества.

Нам, как разработчикам новой концепции ИИ часто писали: "то что в вашей демке это можно сделать на LLM, а покажите такое, что нельзя сделать".

Вот FractalMath - это такая яркая иллюстрация, proof-of-concept агентности - того, что не может сделать никакая LLM - система имеет свойства LLM тоже, она понимает текст задачи, но плюс к этому она имеет новые свойства: надежность и высокую точность, скейлинг на новые типы задач. Достаточно разработать более сложных агентов и возможности системы кратно возрастут, по соотношению трудозатрат к спектру решаемых возможностей это очень эффективный подход.

Вообще, решать задачи требующие точности, такие как математические (а также физики и пр.) с помощью LLM вообще нельзя и даже бесполезно. Ведь для того, чтобы понять, что задача решена правильно вам нужно ее решить(!) другим способом и сверить результат. А зачем же тогда тратили время на решение ее на LLM?

Мы надеемся, что в будущем новая схема тестирования агентов, которые обучаются всего на нескольких примерах стратегий обретет бОльшую популярность - в этой схеме корректным представляется тестирование системы на всем датасете, за исключением тех кейсов, которые использовались для написания стратегии.

Где попробовать FractalMath

Вы можете брать готовые задачи на английском из датасета MultiArith. Бот тестировался на англ текстах задач - мы не гарантируем высокое качество работы для задач на русском языке.
Бот доступен в Телеграм:

Еще больше интересного про ИИ в нашем чате.

Cайт про мультиагентный ИИ:

Сайт сервиса QA агента, где вы можете создать себе нейросотрудника, который будет отвечать на ваши вопросы.

0
11 комментариев
Написать комментарий...
Виктор Н. (FractalGPT)
Автор

FractalMath решает правильно, а вот ChatGPT поплыл)) видимо потому что постановка далека от того что он видел в датасетах 😂

Ответить
Развернуть ветку
Виктор Н. (FractalGPT)
Автор

Вот как великолепно (и неправильно) складывает ChatGPT, он даже не понял, что нужно отнимать

Ответить
Развернуть ветку
Robert47

А сколько междунейронных связей в вашей модели , если не секрет?

Ответить
Развернуть ветку
Виктор Н. (FractalGPT)
Автор

Детали реализации агентов мы не раскрываем.
Но могу сказать, что LLM мы используем - и на самом деле не так важно сколько там млрд параметров, как важна другая вещь - архитектура системы и способность агентов собраться в рабочую стратегию за конечное время.
У нас ведь несколько агентов и там разные модели используются.

Дополнил после публикации статью схемой работы агентов, прикрепляю

Ответить
Развернуть ветку
Robert47

Я понял ваше направление. Вы создаёте несколько нейронок , у них разные задачи. Одна рассуждает на тему как правильно решить задачу , а другая её решает. Я верно понял?

Ответить
Развернуть ветку
Виктор Н. (FractalGPT)
Автор

Да, верно

Ответить
Развернуть ветку
Robert47

Может ли соперничать ваша нейронная сеть с открытой нейронной сетью Bloom ?

Ответить
Развернуть ветку
Виктор Н. (FractalGPT)
Автор

Думаю может, в задаче конечно же только arithmetic reasoning, мы не тестировали. А почему вы именно про нее спрашиваете?

Ответить
Развернуть ветку
Игорь Котенков

Виктор, а почему тестирование ChatGPT для сравнения проводится на слабой версии модели (GPT-3.5), а не на GPT-1 или GPT-2?

Ответить
Развернуть ветку
Виктор Н. (FractalGPT)
Автор

Понимаю всю глубину вопроса))
Если кратко - то ChatGPT это масс продукт, именно он нашумел в СМИ, он доступен бесплатно у OpenAi в интерфейсе и относительно дешев по API.
И я не соглашусь, что он слабый - смотря для каких задач.

Далее, можно сказать "ну взяли бы Claude 2, GPT4. И чего такие простые задачи взяли - вон GSM8k датасет есть с алгеброй, есть Math и тп".
Но это дорого и долго - у нас разработка наперед расписана далеко.
Учить и создавать агентов, которые будут решать более сложные мат задачи, по качеству сопосбные конкурировать с GPT4 и с техниками промтинга с написанием кода - реально дорого.
Мы стартап, а не Сбер или Яндекс)

Наша задача - показать что агенты в принципе побеждают промтинг. А на каких они делают это задачах - не так важно на текущий момент.

Кстати, когда мы зарелизили свой RAG тут же на Vc то у нас спрашивали а почему с GPT4 сравнивали - я взял и сравнил выборочно с ней, и там тоже не было существенного изменения в качестве.

Ответить
Развернуть ветку
Виктор Н. (FractalGPT)
Автор

При тесте столкнулись, что почему-то люди дают задачи совсем не те, и не похожие на задачи из датасета и статьи.
Поэтому, решил написать еще коммент:

Задачи наверное так можно охарактеризовать:
1. в каждой по 1-3 действия
2. действия на сложение, умножение, деление
3. конечный результат это число, натуральное

Хотя мне кажется, посмотрев на эти задачи и так все понятно, их же все в школе видели, почему это вызывает вопросы - не совсем ясно, должна же быть генерализация)

Сотни других кейсов: с дробями, квадратными уравнениями, кубическими, на разрезание тканей или переплывание реки - все эти типы задач не были представлены в датасете, они более сложные и поэтому система их не должна уметь решать.

Примеры:

At Billy's Restaurant a group with 2 adults and 5 children came in to eat. If each meal cost 3 dollars, how much was the bill?

По заданным условиям, в ресторан пришла группа из 2 взрослых и 5 детей. Стоимость каждого приема пищи составляет 3 доллара. Чтобы определить общую сумму счета, нужно узнать общее количество посетителей (взрослых и детей) и умножить его на стоимость одного приема пищи.

Общее количество посетителей:
$total\_people = 2 + 5 = 7$

Сумма счета:
$bill = total\_people \times meal\_cost = 7 \times 3 = 21$

Таким образом, счет составит 21 доллар.

Ответ: Счет составит 21 доллар.

Megan baked 71 cupcakes for her school's bake sale. If her brother, Todd, ate 43 of them how many packages could she make if she put 7 cupcake in each package?

Если Меган испекла 71 кекс для школьной ярмарки, а ее брат Тодд съел 43 из них, то осталось 71 - 43 = 28 кексов. Если она хочет упаковать по 7 кексов в каждую упаковку, то она сможет сделать 28 / 7 = 4 упаковки. Поэтому Меган сможет сделать 4 упаковки.

Ответить
Развернуть ветку
8 комментариев
Раскрывать всегда