⚡️ MiniMax выложила M2.7 в открытый доступ.
Через 3 недели после мартовского релиза (https://t.me/ai_machinelearning_big_data/9690) MiniMax открыла веса флагманской самоэволюционирующей модели на 229 млрд параметров.
За несколько дней после публикации сообщество сделало 32 квантованные сборки (https://huggingface.co/models?other=base_model:quantized:MiniMaxAI/MiniMax-M2.7) и 6 файнтюнов (https://huggingface.co/models?other=base_model:finetune:MiniMaxAI/MiniMax-M2.7).
Напомним, M2.7 - первая модель MiniMax, которая участвовала в собственной разработке: внутренняя версия более 100 раз автономно правила каркас, анализировала неудачные трассы, прогоняла эксперименты и решала, оставлять изменения или откатывать.
Рост производительности на 30% и триумф на бенчах. Модель уступала по тестам только Opus 4.6 и GPT-5.4.
🟡Инженерные бенчи тоже интересные
🟢На SWE-Pro M2.7 выдает 56,22% (паритет с GPT-5.3-Codex, а не с Sonnet 3.5, как сообщалось ранее).
🟢На SWE Multilingual 76,5 и Multi SWE Bench 52,7. VIBE-Pro - 55,6% (почти вровень с Opus 4.6).
🟢Terminal Bench 2 - 57,0%, NL2Repo - 39,8%.
🟢В офисной работе M2.7 держит ELO 1495 на GDPval-AA (лучший результат среди open-source и выше GPT-5.3).
🟢На Toolathon - 46,3%, на MM Claw - 62,7% (рядом с Sonnet 4.6) при 97% соблюдения инструкций на 40+ сложных скиллах.
Заявлена нативная поддержка Agent Teams: конфигурация, где несколько агентов работают с устойчивой ролевой идентичностью и автономным принятием решений.
Для локального деплоя MiniMax советует SGLang, vLLM или Transformers. Модель также доступна через NVIDIA NIM. (https://build.nvidia.com/minimaxai/minimax-m2.7)
Параллельно команда открыла (https://github.com/MiniMax-AI/OpenRoom) исходники OpenRoom (https://www.openroom.ai/), интерактивного Web GUI с визуальной обратной связью и ролевым взаимодействием, где модель отвечает за персонажей.
Подписывайся, показываю как работать с подобными моделями и другими ИИ инструментами.