Китайская MiniMax выпустила «рассуждающую» модель M1, которая обрабатывает до 1 млн токенов

Компания опубликовала демоверсию и исходный код.

  • В тестах на программирование и математику она обошла DeepSeek-R1 и Qwen3-235B от Alibaba, уступив o3 от OpenAI и Gemini 2.5 Pro.
Источник: MiniMax
Источник: MiniMax
  • Компания внедрила механизм «молниеносного внимания» — lightning attention. Он позволяет модели работать «быстрее» и экономнее при обработке длинных запросов. Например, при генерации 100 тысяч символов MiniMax-M1 потратит на 25% меньше вычислительных ресурсов, чем DeepSeek-R1, заявляют разработчики.
  • Модель обрабатывает 1 млн токенов (около 750 тысяч слов). Для сравнения, DeepSeek-R1 поддерживает контекст в 64 тысячи токенов.
  • Бесплатная демоверсия MiniMax-M1 доступна на HuggingFace, также модель выложили на GitHub. Другие модели компании доступны в чат-боте.
  • Пользователи в соцсетях заметили, что ИИ-агент MiniMax Agent стал создавать более сложные сайты и приложения. Однако компания не уточняет, добавили ли в него поддержку M1.
Пользователь создал сайт, на котором можно вести переписку в дневнике Тома Реддла из «Гарри Поттер». Он прикрепил ссылку на чат с MiniMax Agent. Источник: Min Choi
12
4
39 комментариев