DeepSeek V3.2 обогнал GPT-5 на олимпиаде по математике. Китайцы снова всех удивили за копейки
Пока OpenAI сжигает миллиарды на обучение моделей, китайский стартап выпустил нейросеть, которая побеждает на международных олимпиадах — и отдает её бесплатно.
В январе 2025-го DeepSeek обвалил акции Nvidia на 18%, показав, что можно сделать конкурента GPT-4 всего за $6 млн вместо сотен миллионов. На прошлой неделе история повторилась — только теперь речь идёт о GPT-5.
1 декабря китайцы выкатили две новые модели: DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. И судя по бенчмаркам, Кремниевая долина должна занервничать.
Что случилось
DeepSeek представила очередное обновление своей линейки языковых моделей. Но это не просто очередной апдейт — компания заявляет о достижении уровня GPT-5 и Gemini 3.0 Pro.
Главная фишка: обе модели умеют «думать» прямо во время работы с инструментами. Это первое поколение DeepSeek с такой архитектурой — когда цепочка рассуждений встроена непосредственно в процесс выполнения задачи.
Две версии — две задачи:
- V3.2 — базовая модель для повседневных задач. Работает на уровне GPT-5, но быстрее и дешевле
- V3.2-Speciale — «олимпийская» версия для сложного reasoning. Заточена под многошаговые задачи, планирование и агентные сценарии
Цифры, которые заставляют задуматься
Разработчики не стесняются сравнивать себя с топами рынка. И, судя по результатам, имеют на это право:
Математика (AIME 2025):
- DeepSeek-V3.2-Speciale: 96.0%
- Gemini 3.0 Pro: 95.0%
- GPT-5 High: 94.6%
Программирование (CodeForces):
- DeepSeek-V3.2-Speciale: рейтинг 2701
- Gemini 3.0 Pro: 2708
- GPT-5 High: 2537
Агентные задачи (Tool-Decathlon):
- Claude 4.5 Sonnet: 38.6%
- Gemini 3.0 Pro: 36.4%
- DeepSeek-V3.2 Thinking: 35.2%
- GPT-5 High: 29.0%
Версия Speciale получила «золотые медали» на Международной математической олимпиаде (IMO) и Международной олимпиаде по информатике (IOI) 2025 года. DeepSeek даже опубликовала свои решения конкурсных задач — можете проверить сами.
Почему это важно для вас
Если вы используете нейросети в работе — а в 2025 году это почти все — вот что нужно знать:
1. Бесплатный доступ работает из России
V3.2 уже доступна через веб-интерфейс (chat.deepseek.com) и мобильные приложения. Без VPN, без иностранных карт, без боли. Просто заходишь и пользуешься.
2. API дешевле конкурентов
Если вам нужен API для интеграции — DeepSeek традиционно предлагает цены в разы ниже OpenAI и Anthropic. При сопоставимом качестве это серьёзный аргумент.
3. Открытый код
Обе модели выложены на Hugging Face под лицензией MIT. Можете скачать веса, развернуть локально, исследовать архитектуру. Попробуйте попросить такое у OpenAI.
4. Ограниченное время для Speciale
Версия V3.2-Speciale доступна через API только до 15 декабря 2025. Если хотите потестировать «олимпийскую» модель — поторопитесь.
В чём подвох
DeepSeek честно признаёт недостатки:
- Меньше общих знаний о мире. Из-за экономии на вычислительных ресурсах модель уступает конкурентам в широте энциклопедических знаний
- Длинные цепочки рассуждений. Чтобы выдать качественный ответ, модели требуется больше токенов — а значит, больше времени и ресурсов
- Цензура. Модель следует политике китайского правительства — это заметно на чувствительных темах
Что это значит для рынка AI
DeepSeek продолжает доказывать неприятную для Кремниевой долины истину: гонка вооружений в AI — это не только про деньги.
Пока американские компании заливают миллиарды в датацентры и вычислительные кластеры, китайцы делают ставку на оптимизацию и умные архитектурные решения. И пока что эта стратегия работает.
Для обычных пользователей и бизнеса это означает одно: качественные AI-инструменты становятся доступнее. Когда есть конкуренция — все выигрывают.
Как попробовать
Базовая модель V3.2:
- Веб: chat.deepseek.com
- iOS и Android: приложение DeepSeek
- API: доступен после регистрации
Версия Speciale:
- Только через API
- Временный endpoint до 15 декабря
- Подробности в техническом отчёте на Hugging Face
Что думаете?
Пользовались DeepSeek раньше? Переключитесь с ChatGPT ради бесплатного доступа и открытого кода? Или цензура и узкий кругозор — критичные минусы?
Делитесь опытом в комментариях — интересно узнать, кто уже тестировал V3.2.
P.S. Если пропустили январскую историю с R1 — модель, которая обвалила Nvidia, — загляните в поиск vc.ru. Там есть отличные разборы того, как китайцы умудрились сделать конкурента GPT-4 за $6 млн.