На большинстве заданий для оценки еще использовали OPT и GPT-3 – модели гораздо большего размера, чем основные четыре варианта.
Задания были разные: закончить предложение, решить математическую задачу, ответить на вопрос и так далее.
Результаты получились впечатляющие: Toolformer превзошел конкурентов. Конечно, у этой работы есть свои ограничения, которые сами авторы перечисляют в статье: Toolformer не умеет вызывать несколько инструментов последовательно и не может сам запустить свои запросы, для этого нужно прикрутить к нему отдельный механизм. С некоторыми инструментами, например, с калькулятором, процент успешных взаимодействий достаточно низкий. Тем не менее, это важный шаг вперед. Не единственная работа по обучению языковых моделей использованию дополнительных инструментов, но очень интересная и важная.
Я, кажется, все свои посты заканчиваю этой фразой, но тема очень интересная, за ней нужно следить. Я, собственно, и собираюсь этим заниматься здесь и у себя в телеграме, где я также пишу про разные инструменты и про многие тенденции в развитии ИИ.
Модели могут научиться использовать инструменты - ну что обезьяны научились, почему бы нейронке на научиться