А что там у DeepSeek?

А что там у DeepSeek?

В начале года в наших краях про искусственный интеллект заговорили даже те, кто раньше игнорировал эту тему. Причиной стал DeepSeek R1: ИИ от китайцев, который обладал передовым на тот момент режимом рассуждений, в бенчмарках почти дотягивался до лучших конкурентов, но при этом был бесплатен и без региональных ограничений. Да, первые несколько недель DeepSeek работал с перебоями, но потом проблему исправили — и я знаю, что многие до сих пор используют этот ИИ как основной.

Разумеется, с самого выхода все начали ждать DeepSeek R2, которому приписывали совсем мифические характеристики. Были слухи о релизе R2 в мае, но сейчас уже конец августа, а его так и нет. Что же случилось?

Начну с того, что развитие DeepSeek шло весь год. Весной сначала обновили V3 (модель для быстрых ответов, вроде GPT-4o), а затем и рассуждающий R1. Ну а на днях выпустили V3.1. Новинку опять подтянули в бенчмарках — отставание от передовых ИИ, конечно, есть, но во многих задачах оно незаметно. Но главное — V3 и R1 объединены в одну модель, которую можно переключать между быстрым и рассуждающим режимами.

Единая модель стала экономичней и быстрее — в режиме рассуждений на ответ теперь уходит 10-20 секунд. V3.1 очень дешево стоит по API, а на сайте и в приложениях и вовсе не надо ничего платить. Поэтому ИИ можно смело добавлять к списку бесплатных решений, которые я рекомендовал некоторое время назад. Но вряд ли получится бесконечно улучшать уже старую архитектуру, поэтому что же там с DeepSeek R2?

А с ним почти детективная история. Дело в том, что китайцы тренируют свои ИИ в условиях дефицита ускорителей Nvidia. Страна находится под санкциями, поэтому GPU она получает или в урезанном варианте, или через серые каналы и по более высокой цене. Плюс есть опасения, что Nvidia может начать встраивать программные закладки в свои ускорители, в определенный момент положив всю китайскую ИИ-программу на бок.

Недавно в западных СМИ появилась история, что китайские власти пытаются перевести ИИ-индустрию на собственные ускорители, начав с лидера. То есть — с DeepSeek.

У страны есть несколько разработок GPU, в первую очередь — Huawei Ascend, которые уступают Nvidia примерно на 40%. Теоретически недостаток скорости можно исправить большим количеством ускорителей, но в реальности не все так просто.

Дело в том, что во время обучения модели важна стабильность: если какой-то чип выйдет из строя и его не удастся быстро заменить, то обучение придется откатить к прошлому чекпоинту (контрольной точке), теряя время и деньги. И вот здесь у Ascend есть проблемы и с софтом и с соединениями между кластерами.

DeepSeek R2 в какой-то момент попробовали обучить на Ascend, но эксперимент провалился даже несмотря на помощь инженеров Huawei. В итоге чипы Ascend пока будут использоваться только для инференса — запуска уже обученных моделей для пользователей вроде нас с вами (в этой задаче “отвал” ускорителей не так критичен). А DeepSeek R2 тренируют на ускорителях Nvidia.

Пишут об этом западные СМИ, поэтому информацию стоит оценивать с некоторым скепсисом. Но проблема не уникальная — от похожей болячки страдают передовые серверы Nvidia GB200 NVL72 и их также пока рекомендуют использовать для инференса.

Я не удивлюсь, если задержка R2 вообще не выглядит большой проблемой для разработчиков. Для китайцев DeepSeek является тем же, чем ChatGPT для западных рынков — фактически, синонимом слова ИИ. Моделью там пользуются практически все — даже в Tesla для китайского рынка планируется устанавливать ассистент именно на основе DeepSeek.

Имея за спиной настолько хорошую базу, можно не ввязываться в зачастую бессмысленную гонку бенчмарков, а развиваться с удобной скоростью и параллельно переходить на ускорители местного производства. Сейчас V3.1 закрывает большинство задач, а R2 выйдет тогда, когда разработчики будут полностью в нем уверены.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", на котором я рассказываю про ИИ с творческой стороны.

1
Начать дискуссию