Уже неделю периодически юзаю новую модель от Xiaomi
Называется MiMo-V2-Flash, открытая LLM с архитектурой mixture-of-experts. Формально это 309B параметров, но на каждом проходе активно всего около 15B, так что по ощущениям она работает как средняя по цене, но большая по возможностям. Делали ее кажется под рассуждения, код и агентные сценарии, но я ради эксперимента тестирую на креативных задачках, показывает неплохие результаты.
По качеству MiMo-V2-Flash целится в DeepSeek-V3.2 и большие проприетарные модели. В коде и математике она сильна, в агентных цепочках и автокомплите выглядит логично и стабильно.
Доступна уже сейчас. Веса на Hugging Face, API, плюс сообщество активно пилит гайды для локального запуска. Я юзаю через OpenRouter.
Подписывайтесь на Telegram Точки над ИИ.
Начать дискуссию