Короче устал я от того что Copilot не работает в России, остальное все через VPN и подумал почему бы мне не развернуть локально свою модель? Тем более ресурсов макбука хватает.
А какая конфигурация железа ? Как быстро отвечает и какого размера код выдает ?
у меня мак с M2 Pro на 16 Гб. Процесс с ollama занимает ~2 Гб оперативки. Отвечает быстро. По размеру кода тут почему-то очень по разному - бывает 1-2 строки выдает, а бывает строк 15. Пока тестирую
Присоединюсь к вопросу. Разворачивал я локально Ollama. Это была пытка.