{"id":14291,"url":"\/distributions\/14291\/click?bit=1&hash=257d5375fbb462be671b713a7a4184bd5d4f9c6ce46e0d204104db0e88eadadd","title":"\u0420\u0435\u043a\u043b\u0430\u043c\u0430 \u043d\u0430 Ozon \u0434\u043b\u044f \u0442\u0435\u0445, \u043a\u0442\u043e \u043d\u0438\u0447\u0435\u0433\u043e \u0442\u0430\u043c \u043d\u0435 \u043f\u0440\u043e\u0434\u0430\u0451\u0442","buttonText":"","imageUuid":""}

Нужен ли вам fine-tuning моделей и что это такое

Вы, наверное, уже не раз слышали о тонкой настройке (fine-tuning) моделей. На самом деле, в нашей компании мы настраиваем модель каждые 10 секунд. До написания этой статьи я даже настроил свой завтрак, на всякий случай, потому что как мы все знаем, все становится лучше, когда оно тонко настроено 🧐.

Но что это на самом деле? Это просто очередной модный термин или в нем есть смысл? 🤔 Давайте выясним.

Модель в машинном обучении - это просто огромное математическое уравнение с большим количеством параметров, которое может что-то предсказать на основе одной или нескольких входных переменных. Например, она может предсказать вес человека, исходя из его роста, или пол человека, исходя из количества используемой им косметики. Давайте посмотрим на пример:

f(x) = a * x + b или вес = a * рост + b

Тренировка модели - это просто поиск правильных параметров a и b, чтобы наша модель, когда мы вставляем рост, давала нам правильный вес (в среднем).

Это очень простая проблема и уравнение. Так же, как выбор идеального шоу на Netflix в пятницу вечером может быть неожиданно сложным, реальные проблемы обычно требуют моделей с гораздо большим количеством параметров. На самом деле, современные LLM имеют миллиарды параметров, но основная идея точно такая же.

Обучить модель с двумя параметрами просто. Вы даже можете сделать это с помощью карандаша и бумаги. Но тренировать модель с миллиардами параметров? Это как пытаться сосчитать каждую песчинку на пляже - задача, требующая серьезной вычислительной мощности: обычно GPU или TPU, которые могут стоить дороже, чем новый Ламборгини. Говорят, что Meta (известная экстремистская организация 🥴) потратила более 20 миллионов долларов на обучение своей модели LLama только в вычислительных затратах. Если ваше имя - Цукерберг, то можете прекратить чтение прямо сейчас, потому что вы можете позволить себе тренировать новую модель хоть каждый день. Для нас, простых смертных, это не реалистично.

Fine Tuning

Чтобы решить эту проблему, исследователи придумали уловку. А что, если мы возьмём существующую модель, которая была обучена для другой задачи или на другом наборе данных, и проведем дополнительное обучение?

Мы берем существующую модель, в которой уже установлено большинство параметров, и нам нужно только подкрутить несколько других. Это гораздо проще, чем тренировать модель с нуля.

Ключевой момент здесь - использовать модель, которая уже хорошо справляется с определенными базовыми аспектами типа задачи, которую вы хотите решить. Например, если вы пытаетесь построить систему, которая категоризирует отзывы пользователей на товары как положительные, нейтральные или отрицательные, лучше использовать существующую модель обработки естественного языка (NLP модель), которая уже хорошо понимает человеческий язык, в качестве основы. Например, модель, обученная на Википедии, чтобы предсказывать следующее слово статьи Википедии. Затем вы можете провести дополнительную настройку с набором данных отзывов на товары, чтобы она могла определять оценку товара из текстового обзора пользователя.

Или подумайте об этом так: вы хотите починить унитаз, но вокруг нет сантехников. Вы не будете брать 5-летнего ребенка, учить его читать и писать, отправлять его в сантехнический колледж, чтобы он получил диплом сантехника, а затем чинить вам трубы. Это займет слишком много времени. Вместо этого вы берете плотника. Он уже знает все основы - как пользоваться инструментами и читать инструкции. Ему нужно только немного обучения, чтобы он мог заниматься сантехникой. Так что тонкая настройка - это взятие хорошо обученной модели - той, которая уже является асом в определенной задаче - и дача ей нескольких дополнительных уроков, чтобы сделать ее экспертом в чем-то немного другом. Основные навыки уже есть; их просто нужно немного настроить.

Вот вопрос — нужно ли нам настраивать каждую модель для каждой задачи, которую у нас есть? Или это не всегда необходимо?

Давайте рассмотрим такую аналогию.

Предположим, вы решили подзаработать и открыть бар. Вы хотите нанять кого-то, чтобы помочь вам с этим, и у вас есть три варианта:

Ваш 10-летний сын, парень по имени Петя, который только что закончил институт и подрабатывал барменом в свободное время, и Илон Маск. Предположим, они все стоят одинаково.

Вы выбираете своего сына, и на первый взгляд это кажется дешевле, так как вы можете платить ему конфетами. Но, вероятно, в итоге получится что-то вроде этого, и вы будете удивляться, почему у вас совсем нет клиентов 🙈:

Чего вы ожидали от 10-летнего ребенка? Кстати детский труд запрещен и к вам уже выехали...

Вот это похоже на тренировку собственной модели. В общем не советую.

Или вы можете обучить Джо, и, возможно, в конечном итоге он сможет управлять баром. Но это займет очень много времени. И вы рискуете своими деньгами на его обучение без каких-либо гарантий, что он будет хорош в этом. Это настройка собственной модели.

Типичный разговор с AI разработчиками

Так что есть очень веские причины не тренировать модель самостоятельно.

Или вы нанимаете Илона Маска. Да, он не знает, как управлять баром. Но у него огромный опыт управления другими бизнесами. Вы можете дать ему инструкцию по управлению баром и быть довольно уверенным, что если он чего-то не знает — он это прочитает в инструкции. Вы можете быть достаточно уверены, что он не приведет вас к банкротству и справится с работой (если только он внезапно не решит запустить ваш бар в космос, в этом случае вам не повезло). Это аналогично использованию универсальной большой модели (LLM), такой как ChatGPT, с векторной базой данных, которая играет роль инструкции. Это техника называется RAG (об этом позже).

Так что во многих случаях настройка не имеет смысла. LLM с правильным промптом и некоторым контекстом будет работать гораздо лучше, чем что-либо, что вы можете реально настроить или обучить самостоятельно. Если ваша задача настолько специфична, что универсальная модель не является хорошим вариантом, тогда да, вам придется настраивать. Но попробовать инженерию промптов сначала с существующей большой моделью гораздо дешевле.

Решение о настройке модели машинного обучения немного похоже на выбор подходящей одежды для случая. Не всегда нужно полностью менять гардероб; иногда достаточно нового аксессуара. Вот несколько сценариев, где настройка помогает:

  • Вход в новую область: если у вас есть универсальная модель, и вы хотите, чтобы она лучше работала в определенной области, например, в медицине, вы можете донастроить ее с помощью соответствующих документов, чтобы специализироваться в этой области.
  • Улучшение качества: если ваша цель — улучшить способность модели выполнять определенные задачи, например, писать стихи или переводить языки, донастройка может помочь достичь этого.
  • Настройка стиля вывода: вы можете настроить модель, чтобы корректировать ее тон, личность или уровень детализации в ее выводах, делая ее более подходящей для ваших требований.
  • Адаптация к меняющимся данным: по мере изменения типа данных, с которыми вы работаете, настройка модели обеспечивает ее актуальность и эффективность.

В сущности, тонкая настройка полезна, когда вам нужно адаптировать универсальную модель для выполнения конкретных требований или проблем, когда это невозможно достичь другими способами.

RAG

Метод генерации с дополнением запросами (RAG) используется в языковых моделях ИИ и похож на сочетание суперумного библиотекаря с искусным писателем. Часть ИИ "библиотекарь" (обычно векторная база данных) просматривает огромное количество текстов (как книги, статьи и веб-сайты), чтобы найти информацию, которая идеально подходит для вашего вопроса. Подумайте об этом как о поиске лучших справочных материалов. Как только он находит эту информацию, он передает ее части "писатель". Поиск в векторной базе идёт не по текстовому совпадению а по смыслу, что похоже на поиск в Гугле. При поиске слова собака, будут найдены записи про овчарку, пуделя так далее, даже если в тексте записи слово собака не упоминается.

Часть ИИ "писатель" (обычно LLM) затем использует эту информацию для создания ответа. Она не просто копирует то, что нашла; вместо этого она понимает, переформулирует и иногда сочетает или расширяет информацию, чтобы создать новый, оригинальный ответ, который подходит для вашего вопроса. Этот подход помогает ИИ давать более точные и подробные ответы, особенно на сложные вопросы, потому что он использует широкий спектр информации, очень похоже на то, как человек пишет исследовательскую работу с лучшими источниками под рукой.

Я со-основатель AI интегратора Raft. Подписывайтесь на мой телеграм-канал.

На этом пока все, удачи!

0
18 комментариев
Написать комментарий...
Вдумчиво о продажах

Хорошая статья. Надо исправить очепятку

Ответить
Развернуть ветку
Igor Novikov
Автор

исправил, спасибо!

Ответить
Развернуть ветку
Евгений

Нужен ли вам fine-tuning моделей и что это такое — Машинное обучение на vc.ru

• Тонкая настройка моделей в машинном обучении является модным термином.
• Модель представляет собой огромное математическое уравнение с большим количеством параметров.
• Тренировка модели заключается в поиске правильных параметров a и b для предсказания на основе входных переменных.
• Современные LLM имеют миллиарды параметров, но основная идея остается такой же.
• Тонкая настройка включает использование существующей модели, обученной для другой задачи или на другом наборе данных.
• Ключевой момент - использовать модель, которая уже хорошо справляется с определенными базовыми аспектами задачи.
• Тонкая настройка полезна для адаптации универсальной модели для выполнения конкретных требований или проблем.
• RAG (метод генерации с дополнением запросами) используется в языковых моделях ИИ и похож на сочетание суперумного библиотекаря с искусным писателем.

Ответить
Развернуть ветку
Igor Novikov
Автор

все так)

Ответить
Развернуть ветку
Сообщество WSA.vc

• Тонкая настройка моделей в машинном обучении является модным термином.
• Модель в машинном обучении представляет собой математическое уравнение с большим количеством параметров.
• Тренировка модели заключается в поиске правильных параметров a и b для предсказания на основе входных переменных.
• Современные LLM имеют миллиарды параметров, но основная идея остается такой же.
• Тонкая настройка заключается в использовании существующей модели, обученной для другой задачи или на другом наборе данных.
• Ключевой момент - использовать модель, которая уже хорошо справляется с определенными базовыми аспектами задачи.
• Тонкая настройка полезна для адаптации универсальной модели для выполнения конкретных требований или проблем.
• Метод генерации с дополнением запросами (RAG) используется в языковых моделях ИИ и похож на сочетание суперумного библиотекаря с искусным писателем.

Ответить
Развернуть ветку
Igor Novikov
Автор

все верно

Ответить
Развернуть ветку
Дима Игротехник

Интересно!
Не знал про такие тонкости, спасибо

Ответить
Развернуть ветку
Igor Novikov
Автор

пожалуйста!

Ответить
Развернуть ветку
Оксана Репина

Просто о сложном 👍

Ответить
Развернуть ветку
Igor Golikov

Так дойдем, что у каждого будет карманная llm - ассистент.
Потом засунем это в робота и можно будет весь день в очках виртуальной реальности лежать. Кайф?

Ответить
Развернуть ветку
Igor Novikov
Автор

это неизбежно произойдет, но лежать это личный выбор каждого

Ответить
Развернуть ветку
Ginger Man
что у каждого будет карманная llm

вангую что уже через год максимум так будет. апл и гугл уже лежат в карманах, дело за допиливанием UX и апдейтом.

Ответить
Развернуть ветку
Евгений Ма

Хорошая статья. Но сплошная простыня текста читается сложно. Всё-таки заголовки сильно облегчили бы чтение.

Ответить
Развернуть ветку
Igor Novikov
Автор

хорошее замечание, добавлю разбивку

Ответить
Развернуть ветку

Комментарий удален автором поста

Развернуть ветку
Аккаунт заморожен

Комментарий недоступен

Ответить
Развернуть ветку
Igor Novikov
Автор

значит хорошо разбираетесь в теме

Ответить
Развернуть ветку
Ginger Man

годно! впервые за пару лет лайкнул саму статью )

Ответить
Развернуть ветку
J D

Пример доступный каждому где?
Типа "Берем мистраль 7B, берем денежку на облако или такой-то комп (помощнее), курсовые с кафедры за х лет, вот так скармливаем и хо-ба-на - пишем свой курсач с локальной LLM которая теперь в курсе курсачей".

Ответить
Развернуть ветку
15 комментариев
Раскрывать всегда