Обучение языковой модели — задача, требующая большого объёма вычислительных ресурсов. Для полного fine-tuning LLM необходима память не только под хранение модели, но и под параметры, необходимые в процессе обучения. Возможно, ваш компьютер справится с обработкой весов модели, но выделение памяти под оптимизацию состояний, градиенты и прямую активацию — это сложная задача. Простое оборудование не сможет справиться с таким бременем, поэтому здесь критически важно использовать PEFT. В процессе обучения с учителем full fine-tuning обновляет все веса модели, а методики PEFT обновляют только небольшое подмножество параметров. Такая методика трансферного обучения выбирает конкретные компоненты модели и «замораживает» остальные параметры. Логично, что в результате получается гораздо меньше параметров, чем в исходной модели (в некоторых случаях всего 15-20% от исходных весов; LoRA может снизить количество обучаемых параметров в десять тысяч раз). Благодаря этому требования к памяти становятся гораздо более щадящими. Кроме того, PEFT позволяет решать проблему катастрофического забывания (catastrophic forgetting). Так как мы не трогаем исходную LLM, модель не забывает ранее изученную информацию. Full fine-tuning приводит к получению новой версии модели для каждой задачу, под которую выполняется обучение. Каждая из них имеет тот же размер, что и исходная модель, поэтому при выполнении fine-tuning под множество разных задач может возникнуть проблема хранения больших объёмов данных.