DeepSeek запускает «перемешанное мышление» и резко растёт по пользователям. Что это вообще такое
Китайский стартап DeepSeek добавил в свой ИИ-чатбот новую функцию — «interleaved thinking», или по‑простому «перемешанное мышление». На фоне этого обновления сервис продолжает очень быстро расти по аудитории: в декабре 2025 года у него было уже почти 131,5 млн активных пользователей в месяц — на 90% больше, чем месяцем ранее.
Давайте разберёмся, что именно они запустили и почему это важно в гонке ИИ‑сервисов.
Что такое «перемешанное мышление»
У большинства современных ИИ‑моделей есть скрытый этап «мышления»: модель что‑то обдумывает «у себя внутри», а потом выдаёт человеку уже готовый ответ. Пользователь видит только конечный текст.
DeepSeek пошёл дальше и встроил мышление прямо в процесс работы с инструментами и источниками.
Модель:
- делает шаг (например, открывает сайт или запускает инструмент);
- «думает» над результатом;
- принимает решение, что делать дальше: верить источнику, искать дополнительные данные, перепроверять или менять стратегию.
То есть вместо схемы «сначала подумал — потом сделал» модель работает по схеме «делаю → думаю → корректирую → делаю дальше». Отсюда и термин «interleaved thinking» — мышление вперемешку с действиями.
Как это работает для пользователя
По данным тестов, которые описывала South China Morning Post, глубокий режим исследования не включается всегда. Для простых вопросов (типа «какая погода», «который час в Нью‑Йорке») модель отвечает обычным способом.
Но если запрос сложный — например, нужно: собрать информацию из разных источников, сравнить противоречивые данные и сделать выводы по сложной теме, модель переходит в режим поэтапного исследования. Пользователь может видеть отдельные шаги: какие источники просмотрены, какие выводы сделаны, почему модель решила обратиться к дополнительным данным.
Важный момент: новая архитектура позволяет модели не «перепроходить» всю цепочку размышлений с нуля при каждом обращении к инструментам. Это экономит ресурсы и ускоряет работу.
Техническая база: DeepSeek V3.2
Новая функция построена на модели DeepSeek V3.2, которую компания выпустила в декабре 2025 года. Это первая версия, где мышление напрямую встроено в цикл использования инструментов.
С точки зрения компании, это решает две задачи:
- повышает качество сложных ответов — модель больше анализирует промежуточные результаты;
- уменьшает лишние вычисления — не нужно каждый раз «думать сначала» при новом запросе к инструментам.
DeepSeek отдельно подчёркивает, что по уровню рассуждений V3.2 сравнима с более новыми моделями конкурентов, но при этом выдаёт более короткие ответы и требует меньше вычислительных мощностей.
В качестве демонстрации компания приводит достижения на математических соревнованиях: модель показывает «золотой» уровень на Международной математической олимпиаде и Международной олимпиаде по информатике. Для рынка это сигнал: модель умеет не только «болтать», но и решать сложные задачи.
Взрывной рост пользовательской базы
На фоне развития технологий DeepSeek резко растёт по аудитории:
- январь 2025: 33,7 млн активных пользователей в месяц;
- апрель 2025: 96,88 млн;
- декабрь 2025: почти 131,5 млн.
Такие цифры уже делают DeepSeek серьёзным игроком глобального уровня, хотя компания всё ещё в первую очередь ассоциируется с Китаем.
Рост подкрепляется тем, что компания делает ставку на относительно дешёвое обучение моделей. DeepSeek позиционирует себя как разработчика ИИ, который может конкурировать с американскими гигантами, но при существенно меньших затратах на обучение.
Конкуренты: OpenAI и Anthropic
Функция «перемешанного мышления» — это не изолированное изобретение. Рынок идёт в одну сторону: от «одного большого ответа» к многошаговому исследованию с размышлениями между шагами.
Что делают конкуренты:
- OpenAI
В феврале 2025 года компания запустила режим Deep Research на базе модели o3. Это длинные, многошаговые исследования в интернете с итоговыми развернутыми отчётами. Там тоже есть логика: модель делает шаг → анализирует → решает, что делать дальше.
- Anthropic
В июне 2025 года вышел Claude 4. Он также умеет «думать между действиями»: анализирует результаты инструментов и только после этого выбирает следующий шаг.
На этом фоне DeepSeek V3.2 выглядит как модель, которая:
- не отстаёт по качеству рассуждений;
- работает дешевле;
- даёт более компактные ответы (что, кстати, нравится многим пользователям).
Новая архитектура: Manifold-Constrained Hyper-Connections
31 декабря 2025 года DeepSeek опубликовал научную работу с описанием новой архитектуры обучения — Manifold-Constrained Hyper-Connections. Детали — в основном для исследовательского сообщества, но с практической точки зрения это означает одно: компания не просто «дотягивается» до лидеров, а пытается предложить свои подходы к тому, как обучать большие модели эффективнее.
Сочетание: дешёвой в обучении архитектуры, режимов многошагового мышления и быстро растущей пользовательской базы делает DeepSeek одним из главных игроков «второй волны» ИИ‑рынка — тех, кто пришёл после OpenAI, но уже борется с ним на равных.
Зачем это всё пользователям и бизнесу
Если отбросить технические термины, для конечного пользователя и бизнеса это означает:
- более надёжные ответы на сложные вопросы — модель не просто «угадывает», а проверяет себя по ходу исследования;
- меньше «галлюцинаций» на длинных задачах — за счёт пошаговой проверки источников;
- потенциально более дешёвый доступ к сильным ИИ‑моделям — если DeepSeek действительно удержит преимущество по стоимости обучения.
Для создателей продуктов и ИИ‑сервисов важно другое: «перемешанное мышление» становится де‑факто новым стандартом. Пользователи будут постепенно ждать от ИИ не только красивых ответов, но и прозрачного процесса: что он посмотрел, что учёл, почему пришёл к такому выводу.