Каким был fine-tuning до SFT. Несмотря на недавно возникшую популярность SFT, fine-tuning языковых моделей уже давно был популярной методикой. Например, для GPT [7] fine-tuning выполняется напрямую для каждой оцениваемой задачи (см. ниже), а для состоящих только из энкодера языковых моделей (например, BERT [8]) (из-за того, что они не используются широко для задач генерации), для решения узких задач почти исключительно применяется методика fine-tuning. Более того, во многих LLM начали применять методики fine-tuning, немного отличающиеся от SFT; например, для LaMDA [9] fine-tuning выполняется на различных вспомогательных задачах, а для Codex [10] выполняется fine-tuning под конкретные предметные области (то есть, по сути, дополнительное предварительное обучение на разных данных) на основании корпуса кода.