Например, при использовании модели Llama3 70b для написания кода, контекст в 8 000 токенов часто оказывался недостаточным. Теперь, с расширенным контекстом в 128k токенов, можно включить практически весь код проекта в запрос, и модель способна давать ответы с учетом всего кода проекта.