Уже неделю периодически юзаю новую модель от Xiaomi

Называется MiMo-V2-Flash, открытая LLM с архитектурой mixture-of-experts. Формально это 309B параметров, но на каждом проходе активно всего около 15B, так что по ощущениям она работает как средняя по цене, но большая по возможностям. Делали ее кажется под рассуждения, код и агентные сценарии, но я ради эксперимента тестирую на креативных задачках, показывает неплохие результаты.

Уже неделю периодически юзаю новую модель от Xiaomi

По качеству MiMo-V2-Flash целится в DeepSeek-V3.2 и большие проприетарные модели. В коде и математике она сильна, в агентных цепочках и автокомплите выглядит логично и стабильно.

Доступна уже сейчас. Веса на Hugging Face, API, плюс сообщество активно пилит гайды для локального запуска. Я юзаю через OpenRouter.

Подписывайтесь на Telegram Точки над ИИ.

Начать дискуссию