у меня мак с M2 Pro на 16 Гб. Процесс с ollama занимает ~2 Гб оперативки. Отвечает быстро. По размеру кода тут почему-то очень по разному - бывает 1-2 строки выдает, а бывает строк 15. Пока тестирую
шляпа локальные модели, потестил много — смысла ноль, а что бесплатно — ну так для работы же используем, любое количество потраченных токенов даст минимум 10х а где и 100х) сэкономил полтинник — потерял пару тысяч во времени, такаяяяяя себе экономия
А какая конфигурация железа ? Как быстро отвечает и какого размера код выдает ?
у меня мак с M2 Pro на 16 Гб. Процесс с ollama занимает ~2 Гб оперативки. Отвечает быстро. По размеру кода тут почему-то очень по разному - бывает 1-2 строки выдает, а бывает строк 15. Пока тестирую
Присоединюсь к вопросу. Разворачивал я локально Ollama. Это была пытка.
шляпа локальные модели, потестил много — смысла ноль, а что бесплатно — ну так для работы же используем, любое количество потраченных токенов даст минимум 10х а где и 100х) сэкономил полтинник — потерял пару тысяч во времени, такаяяяяя себе экономия
А какого размера модель? Есть какие-то впечатления по качеству? Может 7B попробовать?
у меня как раз 7B, по качеству заметно хуже Copilot конечно, но лучше чем ничего. Хочу поэкспериментировать с другими моделями
а чат поддерживается? это основная штука. дополнение уже не торт.