DeepSeek запускает «перемешанное мышление» и резко растёт по пользователям. Что это вообще такое

DeepSeek запускает «перемешанное мышление» и резко растёт по пользователям. Что это вообще такое

Китайский стартап DeepSeek добавил в свой ИИ-чатбот новую функцию — «interleaved thinking», или по‑простому «перемешанное мышление». На фоне этого обновления сервис продолжает очень быстро расти по аудитории: в декабре 2025 года у него было уже почти 131,5 млн активных пользователей в месяц — на 90% больше, чем месяцем ранее.

Давайте разберёмся, что именно они запустили и почему это важно в гонке ИИ‑сервисов.

Что такое «перемешанное мышление»

У большинства современных ИИ‑моделей есть скрытый этап «мышления»: модель что‑то обдумывает «у себя внутри», а потом выдаёт человеку уже готовый ответ. Пользователь видит только конечный текст.

DeepSeek пошёл дальше и встроил мышление прямо в процесс работы с инструментами и источниками.

Модель:

- делает шаг (например, открывает сайт или запускает инструмент);

- «думает» над результатом;

- принимает решение, что делать дальше: верить источнику, искать дополнительные данные, перепроверять или менять стратегию.

То есть вместо схемы «сначала подумал — потом сделал» модель работает по схеме «делаю → думаю → корректирую → делаю дальше». Отсюда и термин «interleaved thinking» — мышление вперемешку с действиями.

Как это работает для пользователя

По данным тестов, которые описывала South China Morning Post, глубокий режим исследования не включается всегда. Для простых вопросов (типа «какая погода», «который час в Нью‑Йорке») модель отвечает обычным способом.

Но если запрос сложный — например, нужно: собрать информацию из разных источников, сравнить противоречивые данные и сделать выводы по сложной теме, модель переходит в режим поэтапного исследования. Пользователь может видеть отдельные шаги: какие источники просмотрены, какие выводы сделаны, почему модель решила обратиться к дополнительным данным.

Важный момент: новая архитектура позволяет модели не «перепроходить» всю цепочку размышлений с нуля при каждом обращении к инструментам. Это экономит ресурсы и ускоряет работу.

Техническая база: DeepSeek V3.2

Новая функция построена на модели DeepSeek V3.2, которую компания выпустила в декабре 2025 года. Это первая версия, где мышление напрямую встроено в цикл использования инструментов.

С точки зрения компании, это решает две задачи:

- повышает качество сложных ответов — модель больше анализирует промежуточные результаты;

- уменьшает лишние вычисления — не нужно каждый раз «думать сначала» при новом запросе к инструментам.

DeepSeek отдельно подчёркивает, что по уровню рассуждений V3.2 сравнима с более новыми моделями конкурентов, но при этом выдаёт более короткие ответы и требует меньше вычислительных мощностей.

В качестве демонстрации компания приводит достижения на математических соревнованиях: модель показывает «золотой» уровень на Международной математической олимпиаде и Международной олимпиаде по информатике. Для рынка это сигнал: модель умеет не только «болтать», но и решать сложные задачи.

Взрывной рост пользовательской базы

На фоне развития технологий DeepSeek резко растёт по аудитории:

- январь 2025: 33,7 млн активных пользователей в месяц;

- апрель 2025: 96,88 млн;

- декабрь 2025: почти 131,5 млн.

Такие цифры уже делают DeepSeek серьёзным игроком глобального уровня, хотя компания всё ещё в первую очередь ассоциируется с Китаем.

Рост подкрепляется тем, что компания делает ставку на относительно дешёвое обучение моделей. DeepSeek позиционирует себя как разработчика ИИ, который может конкурировать с американскими гигантами, но при существенно меньших затратах на обучение.

Конкуренты: OpenAI и Anthropic

Функция «перемешанного мышления» — это не изолированное изобретение. Рынок идёт в одну сторону: от «одного большого ответа» к многошаговому исследованию с размышлениями между шагами.

Что делают конкуренты:

- OpenAI

В феврале 2025 года компания запустила режим Deep Research на базе модели o3. Это длинные, многошаговые исследования в интернете с итоговыми развернутыми отчётами. Там тоже есть логика: модель делает шаг → анализирует → решает, что делать дальше.

- Anthropic

В июне 2025 года вышел Claude 4. Он также умеет «думать между действиями»: анализирует результаты инструментов и только после этого выбирает следующий шаг.

На этом фоне DeepSeek V3.2 выглядит как модель, которая:

- не отстаёт по качеству рассуждений;

- работает дешевле;

- даёт более компактные ответы (что, кстати, нравится многим пользователям).

Новая архитектура: Manifold-Constrained Hyper-Connections

31 декабря 2025 года DeepSeek опубликовал научную работу с описанием новой архитектуры обучения — Manifold-Constrained Hyper-Connections. Детали — в основном для исследовательского сообщества, но с практической точки зрения это означает одно: компания не просто «дотягивается» до лидеров, а пытается предложить свои подходы к тому, как обучать большие модели эффективнее.

Сочетание: дешёвой в обучении архитектуры, режимов многошагового мышления и быстро растущей пользовательской базы делает DeepSeek одним из главных игроков «второй волны» ИИ‑рынка — тех, кто пришёл после OpenAI, но уже борется с ним на равных.

Зачем это всё пользователям и бизнесу

Если отбросить технические термины, для конечного пользователя и бизнеса это означает:

- более надёжные ответы на сложные вопросы — модель не просто «угадывает», а проверяет себя по ходу исследования;

- меньше «галлюцинаций» на длинных задачах — за счёт пошаговой проверки источников;

- потенциально более дешёвый доступ к сильным ИИ‑моделям — если DeepSeek действительно удержит преимущество по стоимости обучения.

Для создателей продуктов и ИИ‑сервисов важно другое: «перемешанное мышление» становится де‑факто новым стандартом. Пользователи будут постепенно ждать от ИИ не только красивых ответов, но и прозрачного процесса: что он посмотрел, что учёл, почему пришёл к такому выводу.

4
2 комментария