DeepSeek, который обвалил капитализацию крупных компаний: почему это угроза для Nvidia и что здесь вообще происходит
На днях Морган Браун, вице-президент по развитию продуктов (Instagram (в РФ запрещен), Dropbox, Shopify), поделился интересным наблюдением: DeepSeek в корне меняет представление о стоимости и доступности ИИ. И если ранее мы (да и я лично) писали про DeepSeek-V3, как о доступном и достойном чате - конкуренте нашумевшему ChatGPT, то теперь выясняется, что DeepSeek реально готов пошатнуть рынок многомиллиардных (или даже триллионных) инфраструктурных затрат. И тут Nvidia, известная своими дорогими GPU, может «заплакать». Разберемся, что к чему.
В чём суть открытия DeepSeek?
- Обучение ИИ раньше — ужасно дорого Гиганты типа OpenAI или Anthropic тратят по $100 млн на вычислительные ресурсы, используя тысячи GPU по $40k каждая. Представьте: вам нужно запустить завод, но параллельно ещё и содержать собственную электростанцию.
- DeepSeek говорит «а давайте сделаем это за $5 млн» И что удивительно — они уже сделали. Их модели бьют или как минимум сравнимы с GPT-4 и Claude по многим задачам. Это рушит представление «большой компании с миллиардом долларов» как единственного пути к крутым ИИ.
- Умная оптимизация: 8 знаков после запятой вместо 32 Базовая идея: зачем хранить такой избыточный объём данных, если можно уменьшить точность и при этом не потерять в качестве ответов. Экономия памяти — –75%. То есть огромная доля затрат на «железо» отпадает.
- «Мульти-токеновая» система DeepSeek обрабатывает фразы пачками, а не по одному слову, что ускоряет работу и сохраняет точность. При гигантском количестве обрабатываемых данных это колоссальная выгода во времени и ресурсах.
- Экспертная система вместо монолитного «знаю всё» Традиционные модели держат в активном состоянии все свои триллионы параметров.У DeepSeek — множество «мини-моделей-экспертов», где включаются только нужные экспертные блоки под конкретную задачу. В итоге 671 млрд параметров, но реально задействованы только 37 млрд. Это огромная экономия вычислений и энергозатрат.
- Низкая стоимость обучения и обслуживания $100 млн -> $5 млн и 100k GPU -> 2k GPU: разница грандиозная.DeepSeek могут работать даже на игровых GPU, что, по сути, делает ИИ-операции более доступными (и где Nvidia лишается возможности втюхивать вам серверные «монстры» по бешеным ценам).
- Код открыт Нет секрета «волшебства». Весь софт выложен, и любой может проверить, улучшить, внедрить. Участие сообщества только ускорит совершенствование системы.
- Почему Nvidia может быть в шоке? Сейчас огромная маржа на профессиональные графические чипы. Но если всё можно запускать на игровых GPU — зачем платить больше?Бизнес-модель «продавай топовые GPU за $40k» начинает трещать.
- Эффект «дизраптора» Крупные игроки оптимизируют прежний подход: «бери больше GPU, трать больше денег, строй дата-центры». DeepSeek с их идеей «делать умнее, а не сильнее» могут всё переменить, сделав дорогое (и сложное) обучение ИИ дешевым и простым.
- Что дальше?
- OpenAI, Anthropic, Meta (запрещена в РФ) и т.д. не будут сидеть сложа руки — они, вероятно, тоже внедрят новые методы. Но назад откат уже вряд ли возможен.
- ИИ станет доступнее, появится больше разработчиков, конкуренция взлетит. Nvidia придётся придумать новые аргументы для своих дорогих решений.
DeepSeek-V3: припомним старое (теперь ещё более актуальное)
Я уже писал о DeepSeek-V3 — их тогдашняя «дёшевая» (а местами бесплатная) модель дала понять, что этот сервис может заменить многие платные решения. Преимущества были очевидны:
- Лучшая точность поиска, чем у ChatGPT
- Поддержка более качественных клиентов (по моему опыту) PDF-анализов, не доступная в бесплатном ChatGPT
- Более глубокие и точные рассуждения — превосходили GPT-4o в ряде тестов
- Открытый исходный код (занаю, что наши топ компании активно это используют) 🤨
- Полностью бесплатная база (плюс недорогие апгрейды)
- Мультимодальность (текст, изображения, видео…)
И теперь, с учётом новых фактов от Моргана Брауна, становится ясно, что DeepSeek не просто «дёшево и сердито», а действительно прорывная технология, решившая фундаментальный вопрос: как сильно удешевить обучение больших моделей.
Итоги и выводы
- DeepSeek — тот самый «дизраптор», который оптимизировал подход, снижая гигантские траты на GPU и энергию.
- Nvidia возможно, придётся менять стратегию, потому что рынок уже понял: монолитный подход к ИИ — это дорого и неэффективно.
- Открытый код и мини-эксперты вместо «одной гигантской модели» выглядят как новая парадигма в разработке ИИ.
- Дешёвый и быстрый ИИ станет реальностью для всех, а не привилегией больших корпораций с миллиардными бюджетами.
А еще я спросил у DeepSeek "Правда, что ты потребляешь меньше энергии?" (предварительно скормив ему эту статью)
Ответ DeepSeek удивил
Теперь вопрос лишь в том, насколько быстро это всё распространится и кто успеет адаптироваться. Это один из тех моментов, когда инновация в корне меняет «правила игры», и остаётся только наблюдать, кто станет новым лидером, а кто — «пострадавшим гигантом».
*Человеку приготовиться — @HumanReadyTech
Автор: Виталий, который смотрит на цифры DeepSeek и понимает: будущее уже здесь.
*Не забудьте подписаться на наш канал «Человеку приготовиться» и следить за новыми обновлениями о самых крутых AI-сервисах!
Что общего между Кремниевой долиной и китайским городом Ханчжоу? До вчерашнего дня — ничего. Но когда команда DeepSeek анонсировала свою новую ИИ-модель, созданную всего за 5.5 миллионов долларов, в офисах технологических гигантов начались экстренные совещания. В своей прошлой статье я упомянул новую нейросеть DeepSeek. В этой статье расскажу подро…
В техно и финансовых кругах развернулась дискуссия (если не сказать паника). Шутка ли, что можно вот так вот создать модель с 20 раз дешевле, да и еще в условиях санкций? Но не все так просто. Расскажу, в чем дело
Социальный бизнес в Тюменской области стабильно растет. За последние три года число проектов увеличилось вдвое: сегодня в регионе 117 социальных предпринимателей. Однако здесь, как и по стране в целом, большая часть проектов — в крупных городах. Многим муниципальным образованиям региона не хватает знаний и навыков для поддержки социального бизнеса.…
Понедельник, 27 января, начался с крупнейшего однодневного падения компании в истории фондового рынка США. Акции NVIDIA упали на 18%, а прибыль снизилась на $589 миллиардов. А все из-за китайской версии «синего кита» — точнее, выхода ИИ-модели DeepSeek-R1. Издание The New Yorker назвало ситуацию «Sputnik moment», по аналогии с отправкой первого чел…
Китайский стартап DeepSeek выпустил прорывной AI, который уже обошел западных гигантов. Чем уже вызвал массовую распродажу акций. Какие последствия это может иметь для будущего индустрии?
Уже слышали про DeepSeek? Эта китайская нейросеть ворвалась в топ, обрушила акции IT-гигантов и показала, что нейросети можно тренировать быстрее, дешевле, без топового железа, а западные компании, возможно, просто раздували AI-пузырь.
Telegram — это не только популярный мессенджер, но и мощная платформа для заработка. Многие пользователи стремятся монетизировать свои каналы, однако не все хотят или могут размещать рекламу. В этой статье мы рассмотрим несколько эффективных способов получения дохода в Telegram без использования рекламных интеграций.
На днях DeepSeek поразил всех заявлением о том, что его ИИ модель использует примерно одну десятую мощности, потраченной на модель Llama. Это перевернуло взгляд на то, сколько энергии и ресурсов нужно для разработки искусственного интеллекта. Не переоценена ли NVIDIA и нужны ли мегапроекты вроде Stargate?
Представьте: есть огромные компании вроде OpenAI (те, кто создал ChatGPT). Чтобы научить их ИИ чему-то новому, нужно100+ миллионов💸.Это как построить целый завод,чтобы испечь один торт🏭→🎂.А потом приходит DeepSeek и говорит: «Мы сделаем это за 5 миллионов, и торт будет вкуснее». И у них получилось!
Ну что, 1 февраля 2025 года, Сан-Франциско — ИИ становится ещё интереснее! OpenAI представила две новые модели: o3-mini и o3-mini-high, которые обещают ускорить ответы, повысить точность рассуждений и заметно уменьшить затраты. Ниже — самое важное о том, почему это может стать настоящим прорывом.
Китайская модель DeepSeek-R1 ворвалась в инфополе и вокруг неё уже строят громкие заголовки. «Убийца ChatGPT», «революция в генеративном ИИ», «конкурент OpenAI» — всё это мы уже слышали. Но давайте разберёмся, насколько модель действительно конкурентоспособна и стоит ли её воспринимать всерьёз.
Вы устали платить большие деньги за ИИ-сервисы, которые не оправдывают ожиданий? Или вам надоели бесконечные подписки и скрытые платежи за «инновационные» технологии, которые на деле не так уж эффективны? В этой статье я расскажу, как китайская компания DeepSeek поменяла правила игры, предложив мощную модель ИИ за меньшую цену и без скрытых затрат.…