DeepSeek-Math-V2: Новая математическая модель от DeepSeek
С момента выхода первой версии прошло почти два года. Новую модель DeepSeek-Math-V2 выпустили неожиданно.
Вот основные результаты:
– Уровень золотой медали на IMO 2025 и CMO 2024 (Китайская математическая олимпиада). – Почти идеальный результат 118/120 на Putnam 2024 — очень сложной математической олимпиаде для студентов университетов США и Канады.
Бенчмарков мало: нет MATH, GSM8K, AIME и почти ничего. Однако можно сравнить с другими моделями на IMO-ProofBench. DeepSeek-Math-V2 уверенно превосходит GPT-5, а на сложных задачах дотягивает до уровня Gemini 2.5 Pro. Интересно, как обстоят дела у Gemini 3, Grok 4 и GPT-5.1.
Модель основана на DeepSeek-V3.2-Exp-Base. Архитектура включает генератор и верификатор.
Решение или доказательство формируется не за один проход, а в результате нескольких итераций: большая модель генерирует решение, затем оно проверяется верификатором на наличие ошибок. Обратная связь от верификатора возвращается генератору для переписывания и улучшения решения до 16 раз.
В каждой итерации используются и проверяются несколько (до 64) гипотез и вариантов решения, что позволяет выполнить сотни прогонов для одной задачи — умное структурированное масштабирование времени вычислений.
Стоимость решения олимпиады не разглашается, вероятно, из-за этого мало результатов по бенчмаркам.
Веса: https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
Статья: https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf
Репозиторий: https://github.com/deepseek-ai/DeepSeek-Math-V2