DeepSeek и шум вокруг него: что на самом деле произошло

Привет на связи Ринат

Последние недели DeepSeek не сходит с заголовков. Кто-то говорит, что китайцы “сломали систему”, кто-то — что они нарушили все возможные правила. Одни видят в этом начало новой гонки, другие — конец американской гегемонии в AI. Но как обычно, за громкими словами прячется куда более интересная история.

Если коротко: DeepSeek — не революция, а демонстрация того, как можно выигрывать за счёт эффективности, а не только мощи. И это куда важнее, чем кажется.

DeepSeek и шум вокруг него: что на самом деле произошло

Многие обсуждают цифру $5,6 миллиона — якобы столько стоило обучение их модели. Но это лишь финальный этап, не включающий инфраструктуру, серверы, исследования и всё то, что делает проект возможным. У DeepSeek более 50 000 GPU Hopper от Nvidia, а это уже масштаб на уровне миллиарда долларов. Сказать, что они “построили модель за 5,6 миллиона”, — всё равно что утверждать, будто новый iPhone стоит $500, потому что столько стоит сборка на заводе.

Главный фокус DeepSeek в другом: они сумели создать конкурентную модель, используя ослабленные чипы H800, на которые не распространяются экспортные ограничения США. Это не обход закона, а пример того, как ограничение превращается в стимул к оптимизации. Примерно как Samsung, которая в некоторых странах ставит чуть менее мощные процессоры, чтобы оставаться в рамках лицензий. DeepSeek не нарушали правил — они просто сделали максимум в рамках дозволенного.

Говоря о “битве” с OpenAI, важно различать два подхода: максимизация мощности и максимизация эффективности. DeepSeek удалось достичь уровня reasoning-моделей вроде GPT-O1, но их фокус был не в том, чтобы превзойти всех по IQ, а в том, чтобы сделать сопоставимый результат дешевле и быстрее. Это как сравнивать человека, который тренируется два часа ради максимального результата, и того, кто за 45 минут получает 80 % эффекта.

Один оптимизирует силу, другой — процесс. DeepSeek выбрали второе.

Благодаря этому, кстати, рынок встрепенулся: почти сразу после их презентации OpenAI выкатили GPT-O3 Mini и сделали reasoning-модель бесплатной. Так что даже если DeepSeek и не обошёл OpenAI по мощности, он заставил конкурентов двигаться быстрее.

Сравнивать модели лоб в лоб — ошибка. DeepSeek имеет свою базовую линейку (V3) и reasoning-модель R1, а OpenAI — GPT-4 и O-серии. Они решают похожие, но не идентичные задачи. Это как SUV и спорткар — оба ездят, но по разным дорогам и ради разных целей. DeepSeek силён в эффективности и цене, OpenAI — в универсальности и точности.

Многие считают, что “цепочка рассуждений”, видимая в DeepSeek R1, — технический прорыв. На самом деле это дизайнерское решение. Они просто показывают пользователю процесс размышлений модели, тогда как OpenAI этот шаг скрывает. Функционально оба делают то же самое. Разница лишь в том, что один готовит блюдо на публике, а другой — за закрытой дверью кухни.

DeepSeek и шум вокруг него: что на самом деле произошло

Был и миф о том, что DeepSeek “всё построил с нуля”. На деле, по данным ряда исследователей, они применили метод модельной дистилляции — обучали свою систему на ответах ChatGPT. Это не кража кода и не хак, но, по сути, использование результатов OpenAI для обучения собственной модели. В индустрии это не редкость: многие стартапы делают то же самое, просто не говорят об этом вслух. Иронично, что Microsoft уже добавила DeepSeek R1 в свои облачные сервисы, одновременно “расследуя”, использовались ли данные OpenAI при его создании.

Вопрос безопасности данных тоже не чёрно-белый. Если вы используете оригинальные приложения DeepSeek, информация проходит через китайские серверы — и для многих это неприемлемо. Но есть варианты: можно работать через западные платформы вроде Perplexity или Venice AI, где запросы маршрутизируются иначе. А если хочется полной автономии, модели можно запускать локально через LM Studio или Ollama. Гибкость огромная, и никто не заставляет идти по одному пути.

Есть мнение, что успех DeepSeek ударит по Nvidia. На деле — наоборот. Чем эффективнее становятся модели, тем больше людей и компаний смогут их себе позволить. А значит, спрос на GPU вырастет, а не упадёт. Это тот самый парадокс Джевонса: когда что-то становится дешевле и доступнее, потребление не сокращается, а растёт.

Многие переживают, что это “плохие новости” для американских гигантов. Но всё наоборот. Amazon, который так и не создал флагманскую модель, теперь может спокойно предлагать клиентам DeepSeek по низкой себестоимости. Apple получит выгоду на уровне железа, применяя свои чипы для “edge-инференса” — локального выполнения AI. Meta выигрывает больше всех: у неё AI встроен во все продукты, и удешевление вычислений напрямую увеличивает прибыль. Чем дешевле становится интеллект, тем выгоднее его масштабировать.

Сравнение с “китайским Спутником” в этом контексте — тоже мимо. СССР в 1957-м сделал нечто, чего США тогда просто не могли, и при этом не делился технологиями. DeepSeek, напротив, открыто публикует методики, а их достижения — не скачок в неизвестное, а логичное развитие уже известных принципов. Это не момент “мы отстали навсегда”, а скорее повторение 2004-го, когда Google показал миру, как построить суперкомпьютер из недорогих компонентов. DeepSeek сделал то же самое, но в эпоху искусственного интеллекта: доказал, что можно создавать конкурентные модели без доступа к самым мощным чипам.

Что это значит для нас, обычных пользователей? Прежде всего — AI-возможности стали ближе. Теперь у любого есть доступ к reasoning-моделям уровня R1 или GPT-O3 Mini бесплатно. Можно решать сложные задачи, писать код, анализировать документы, не платя подписку. Но вместе с этим растёт и ответственность: если вы заботитесь о приватности, нужно осознанно выбирать, где запускать модель — в браузере, на чужом сервере или локально.

Самое важное — не поддаваться волнам хайпа. Менять свои привычки и инструменты стоит не потому, что “вышел новый AI”, а потому, что это реально улучшает ваш процесс. Если вы уже выстроили систему в Notion, Todoist или ChatGPT Plus — не бросайте всё ради нового тренда. DeepSeek не волшебная кнопка, а просто ещё одна ступень в эволюции.

И всё же, в одном смысле эта история действительно великая.

Не потому что Китай “догнал” США, а потому что AI наконец стал по-настоящему массовым.

Он перестаёт быть игрушкой для избранных и становится инфраструктурой, как интернет двадцать лет назад.

И, как тогда, выигрывают не корпорации, а пользователи — мы с тобой.

Если всё, что прочитал, откликается — не останавливайся на этом.

В профиле есть разбор с примерами, как сегодня реально строят доходы через AI-ботов и зачем за этим направлением будущее.

Загляни в описание — там всё подробно.

Подробнее про рынок нейросетей рассказываю на своем YouTube канале 👇)

4
2 комментария