GigaChat 3 open-source

СБЕР дропнули в open-source 2 модели: - Ultra Preview (702B-A36B) - Lightning (10B-A1.8B)

Особенности: - обучены с нуля на своем корпусе данных - архитектуру взяли от DeepSeekV3 - MoE - Mixture-of-Experts - MTP - Multi-Token Prediction - MLA - Multi-Head Latent Attention - это не reasoning модели, но умеют на базовом уровне - лицензия MIT

GigaChat3-702B-A36B-preview - огромная модель
GigaChat3-10B-A1.8B - маленькая и быстрая, вероятно можно использовать в связке stt - llm - tts.
В бенчмарках скорости пишут TTFT (Time-to-First-Token) = 31 ms (vLLM v0.11.0, dtype bfloat16, batch_size=1), но не указано на каких картах крутили.

Подписывайтесь на Telegram – xVibeNot

Начать дискуссию