⚡️ MiniMax выложила M2.7 в открытый доступ.

MiniMax M2.7 теперь в открытом доступе
MiniMax M2.7 теперь в открытом доступе

Через 3 недели после мартовского релиза (https://t.me/ai_machinelearning_big_data/9690) MiniMax открыла веса флагманской самоэволюционирующей модели на 229 млрд параметров.

моделька топ для своего уровня
моделька топ для своего уровня

За несколько дней после публикации сообщество сделало 32 квантованные сборки (https://huggingface.co/models?other=base_model:quantized:MiniMaxAI/MiniMax-M2.7) и 6 файнтюнов (https://huggingface.co/models?other=base_model:finetune:MiniMaxAI/MiniMax-M2.7).

Напомним, M2.7 - первая модель MiniMax, которая участвовала в собственной разработке: внутренняя версия более 100 раз автономно правила каркас, анализировала неудачные трассы, прогоняла эксперименты и решала, оставлять изменения или откатывать.

Рост производительности на 30% и триумф на бенчах. Модель уступала по тестам только Opus 4.6 и GPT-5.4.

🟡Инженерные бенчи тоже интересные

🟢На SWE-Pro M2.7 выдает 56,22% (паритет с GPT-5.3-Codex, а не с Sonnet 3.5, как сообщалось ранее).

🟢На SWE Multilingual 76,5 и Multi SWE Bench 52,7. VIBE-Pro - 55,6% (почти вровень с Opus 4.6).

🟢Terminal Bench 2 - 57,0%, NL2Repo - 39,8%.

🟢В офисной работе M2.7 держит ELO 1495 на GDPval-AA (лучший результат среди open-source и выше GPT-5.3).

🟢На Toolathon - 46,3%, на MM Claw - 62,7% (рядом с Sonnet 4.6) при 97% соблюдения инструкций на 40+ сложных скиллах.

Заявлена нативная поддержка Agent Teams: конфигурация, где несколько агентов работают с устойчивой ролевой идентичностью и автономным принятием решений.

Для локального деплоя MiniMax советует SGLang, vLLM или Transformers. Модель также доступна через NVIDIA NIM. (https://build.nvidia.com/minimaxai/minimax-m2.7)

Параллельно команда открыла (https://github.com/MiniMax-AI/OpenRoom) исходники OpenRoom (https://www.openroom.ai/), интерактивного Web GUI с визуальной обратной связью и ролевым взаимодействием, где модель отвечает за персонажей.

2
Начать дискуссию