Китайская MiniMax выпустила «рассуждающую» модель M1, которая обрабатывает до 1 млн токенов
Компания опубликовала демоверсию и исходный код.
- В тестах на программирование и математику она обошла DeepSeek-R1 и Qwen3-235B от Alibaba, уступив o3 от OpenAI и Gemini 2.5 Pro.
Источник: MiniMax
- Компания внедрила механизм «молниеносного внимания» — lightning attention. Он позволяет модели работать «быстрее» и экономнее при обработке длинных запросов. Например, при генерации 100 тысяч символов MiniMax-M1 потратит на 25% меньше вычислительных ресурсов, чем DeepSeek-R1, заявляют разработчики.
- Модель обрабатывает 1 млн токенов (около 750 тысяч слов). Для сравнения, DeepSeek-R1 поддерживает контекст в 64 тысячи токенов.
- Бесплатная демоверсия MiniMax-M1 доступна на HuggingFace, также модель выложили на GitHub. Другие модели компании доступны в чат-боте.
- Пользователи в соцсетях заметили, что ИИ-агент MiniMax Agent стал создавать более сложные сайты и приложения. Однако компания не уточняет, добавили ли в него поддержку M1.
39 комментариев