⚔🤖 Ну здравствуй, новый убийца ChatGPT

Не прошло и месяца, как мы обсуждали Kimi K2 Thinking от Moonshot AI — казалось бы, ИИ-гонка и так на красной зоне. Но нет. На сцену выходит DeepSeek и такой: «А вот вам ещё два фронтирных зверя, на уровне GPT-5 и Gemini 3.0 Pro. И да, они бесплатные».

⚔🤖 Ну здравствуй, новый убийца ChatGPT

DeepSeek выкатил две модели:

  • DeepSeek-V3.2 — «ежедневный разумный помощник», универсальная модель.
  • DeepSeek-V3.2-Speciale — спецверсия, заточенная под тяжелые задачи вроде олимпиад по математике и программированию.

И это не просто маркетинг. По заявлению DeepSeek — модель Speciale показывает результаты уровня золотой медали на олимпиадах (IMO, IOI, ICPC и др.) То есть модель не просто прошла бенчмарки, а уже может участвовать в реальных соревнованиях. По цифрам бенчмарков она реально рядом с GPT-5 и Gemini 3.0 Pro. На олимпиадных задачах V3.2-Speciale где-то сравнима, где-то обходит конкурентов. Обычная V3.2 чуть скромнее, но всё равно в «высшей лиге». 685 млрд параметров и 128k токенов контекста. Можно скормить ей условную книжку страниц на 300 — и не разориться. DeepSeek прикрутили свою Sparse Attention (DSA), которая режет стоимость инференса длинных контекстов примерно на 70% по сравнению с предыдущей версией, опять же по заявлению DeepSeek, как будет на самом деле пока не понятно.

V3.2 умеет не только рассуждать, но и параллельно вызывать тулзы: код, веб-поиск, файлы — при этом не теряя нить рассуждений после каждого вызова. Для этого они натравили модель на 1800+ синтетических сред и 85k сложных задач: от трип-планинга с бюджетами до фикса багов на куче языков. Это уже не просто чат-бот, а зачаток нормального агента.

Самое интересное — лицензия. Обе модели отдают под MIT, открытые веса, код, доки — лежат на Hugging Face, бери и разворачивай хоть в подвале на своих серверах. DeepSeek даже приложили скрипты, чтобы принимать запросы в формате, совместимом с OpenAI — миграция «по щелчку».

Для бизнеса это звучит примерно так: «Хочешь топовый уровень без ценника от hyperscaler? Вот тебе опенсорс, крути сам». Но, конечно, не без нюансов:

  • знание мира у V3.2 всё ещё отстаёт от топовых проприетарных моделей;
  • регуляторы в ЕС и США уже смотрят на DeepSeek как на потенциальный чемодан с китайской пропагондой внутри.

Становится очевидно, что гонка больше не только про «кто умнее», но и про «кто дешевле и открытее». DeepSeek показывает, что можно делать модели уровня GPT-5, не будучи американским бигтехом, и при этом раздавать их бесплатно под MIT.

Для нас, обычных смертных, всё просто:

  • моделей топ-уровня становится больше,
  • цены на API и хостинг под этим давлением вряд ли останутся прежними, а выбор между «закрытым, но удобным» и «открытым, но замороченным» будет только острее.

Ну а пока одни спорят, кто тут настоящий «убийца ChatGPT», мы просто добавляем ещё одну галочку в список моделей «надо потестить вечерком».

Подписывайтесь на Telegram PromtScout.

4
2 комментария