DeepSeek-Math-V2: Новая математическая модель от DeepSeek

DeepSeek-Math-V2: Новая математическая модель от DeepSeek

С момента выхода первой версии прошло почти два года. Новую модель DeepSeek-Math-V2 выпустили неожиданно.

Вот основные результаты:

– Уровень золотой медали на IMO 2025 и CMO 2024 (Китайская математическая олимпиада). – Почти идеальный результат 118/120 на Putnam 2024 — очень сложной математической олимпиаде для студентов университетов США и Канады.

Бенчмарков мало: нет MATH, GSM8K, AIME и почти ничего. Однако можно сравнить с другими моделями на IMO-ProofBench. DeepSeek-Math-V2 уверенно превосходит GPT-5, а на сложных задачах дотягивает до уровня Gemini 2.5 Pro. Интересно, как обстоят дела у Gemini 3, Grok 4 и GPT-5.1.

Модель основана на DeepSeek-V3.2-Exp-Base. Архитектура включает генератор и верификатор.

Решение или доказательство формируется не за один проход, а в результате нескольких итераций: большая модель генерирует решение, затем оно проверяется верификатором на наличие ошибок. Обратная связь от верификатора возвращается генератору для переписывания и улучшения решения до 16 раз.

В каждой итерации используются и проверяются несколько (до 64) гипотез и вариантов решения, что позволяет выполнить сотни прогонов для одной задачи — умное структурированное масштабирование времени вычислений.

Стоимость решения олимпиады не разглашается, вероятно, из-за этого мало результатов по бенчмаркам.

Веса: https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
Статья: https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf
Репозиторий: https://github.com/deepseek-ai/DeepSeek-Math-V2

Начать дискуссию