Notes on ML

+3
с 26.07.2025

Меньше слов -- больше смысла. Обозреваю статьи, пишу о ML и NLP.

2 подписчика
0 подписок
LIMA: Less Is More for Alignment. Или почему качество данных важнее количества при дообучении LLM.

Обучение LLM традиционно проходит в два этапа:

Self-Alignment with Instruction Backtranslation 🔁

Статья тут.
Буквально вчера мы разбирали метод синтеза instruct-данных для дообучения LLM, основанный на Bootstrapping LongCoT. Сегодня разберём ещё один способ получить качественные обучающие пары: Self-Alignment with Instruction Backtranslation.

1
Principal Component Analysis (PCA) ⚙️

PCA — алгоритм, уменьшающий пространство признаков так, чтобы потерять как можно меньше информации. Его часто спрашивали на собеседованиях, и, когда я впервые его изучил, то получил удовольствие от такого изящного применения линейной алгебры. Давайте же начнём разбор 🧑‍💻

1
BOLT: Bootstrapping LongCoT 🚀

Многие LLM модели используют ShortCoT (короткие рассуждения) и плохо справляются со сложными задачами. Подход BOLT помогает научить модели длинным рассуждениям (LongCoT) и значительно улучшает качество ответов.

1
Алгоритм Simulated Annealing 🔥

Недавно участвовал в соревновании на Kaggle, где нужно было подобрать перестановку столбцов матрицы X (50x100), которая минимизировала бы функцию:

1