Рынок услуг графических процессоров растёт вместе с рынком ИИ
Перспективы мирового рынка искусственного интеллекта захватили внимание инвесторов. Ожидается, что мировой рынок ИИ будет расти в среднем на 37% в год, и к 2030 году его объём составит $1 847,5 млрд. При этом отдельные компании — лидеры рынка показывают рост выручки на сотни процентов в год.
Развитие моделей искусственного интеллекта и машинного обучения требует огромных вычислительных мощностей. Угнаться за растущим спросом на ИИ-инфраструктуру не смогли даже гиперскейлеры — владельцы центров обработки данных со способностью к быстрому масштабированию — Amazon, MIcrosoft и Google.
Основой вычислительных мощностей для решения задач искусственного интеллекта стали графические процессоры (GPU). Их архитектура идеально подошла для параллельных вычислений, необходимых для обучения и работы ИИ-моделей. Однако стоит такое оборудование дорого, устаревают процессоры быстро. При этом управление и обслуживание инфраструктуры графических процессоров — сложная и ресурсоёмкая задача.
ИИ рождает новых лидеров
Технологические гиганты, несмотря на все свои возможности, были вынуждены уступить первенство на рынке облачных высокопроизводительных вычислений компании Nvidia — мировому лидеру в производстве графических ускорителей.
Если раньше скорость развития вычислительных систем определяли законом Мура, согласно которому число транзисторов на кристалле чипа удваивается каждые 24 месяца, увеличивая его производительность, то теперь мир узнал о «законе Хуанга». Команда Nvidia, смогла за последнее десятилетие добиться 1000-кратного улучшения производительности одного графического процессора. В 2023 году Nvidia выпустила чипы H100 и H200, их производительность в 16 раз больше, чем у чипов A100, выпущенных на 2 года раньше. Сейчас производительность GPU развивается практически по экспоненте.
Поддерживать лидирующие позиции Nvidia помогает собственная оптимизированная платформа для параллельных вычислений — CUDA (Compute Unified Device Architecture). CUDA разработана специально для экосистемы графических процессоров Nvidia, и предоставляет разработчикам интерфейс для программирования и использования возможностей параллельной обработки на GPU. Результаты Nvidia в области обучения ИИ с использованием CUDA оставили позади всех конкурентов, в том числе ближайшего — платформу OpenCL.
Поставлять чипы гиперскейлерам Nvidia желанием не горит из-за конкуренции в сфере технологий. Однако компания в приоритетном порядке предоставляет передовые продукты своим ключевым партнёрам, таким как CoreWeave и Lambda Labs. А те, в свою очередь, создают инфраструктуру для развития ИИ, которой могут пользоваться другие компании.
Появление рынка графических процессоров как услуги (GPUaaS) стало следствием быстро растущего спроса на технологии ИИ. В первой очереди потребителей стоят компании, которые специализируются на развитии ИИ. Вскоре к ним присоединятся государственные и научные организации, региональные разработчики программного обеспечения, поставщики облачных услуг. Им тоже потребуются специальные вычислительные мощности. Это приведёт к ещё более быстрому развитию рынка GPUaaS.
Рынок GPUaaS и его «звёзды»
Благодаря тому, что потребности в высокопроизводительных вычислениях на GPU увеличиваются стремительно, ожидается, что рынок GPUaaS будет расти на 34,8% в год. Главными потребителями станут организации, разрабатывающие собственные модели ИИ.
Сервисы GPUaaS позволяют компаниям оптимизировать расходы на IT-инфраструктуру: им не приходится инвестировать в дорогостоящее оборудование, достаточно заплатить за использование ресурсов — стоимость услуг сервисов GPUaaS начинается от $2 в час. Это гибкая, экономичная и легко масштабируемая модель работы.
Если сравнивать GPUaaS с получением программного обеспечения по подписке на собственном оборудовании, on-prem, или с услугами совместного использования оборудования по типу colocation, GPUaaS позволяет компаниям спокойно доверить чуткую и дорогостоящую инфраструктуру профессионалам ИИ, и не тратить на них свои ресурсы.
В центре внимания инвесторов на рынке GPUaaS сейчас находятся две компании.
Lambda Labs предоставляет услуги облачных ИИ-вычислений, использует собственные системы на базе ускорителей Nvidia, чипов Intel и AMD. Компания — элитный партнёр Nvidia, что позволяет ей получать передовые чипы в приоритетном порядке. Помимо этого, Lambda Labs продаёт аппаратные комплексы Echelon, серверы, рабочие станции и ноутбуки для работы с ИИ.
Специализация Lambda Labs — системы для обучения моделей генеративного ИИ. Для этого в команде проекта работают эксперты в области машинного обучения.
Услугами Lambda Labs пользуются Intel, Microsoft, Amazon Research, Kaiser Permanente, MIT, Stanford, Harvard, Caltech и Министерство обороны США.
CoreWeave — поставщик облачных услуг, предоставляющий вычислительные ресурсы с графическим ускорением. Компания также, как Lambda Labs, является элитным парнёром Nvidia. CoreWeave была основана в 2017 году и изначально занималась майнингом криптовалют. Затем стартап сосредоточился на универсальных вычислениях и технологии генеративного искусственного интеллекта (ИИ), требующих интенсивного использования ускорителей.
В 2023 году компания Microsoft заключила контракт с CoreWeave, соглашение направлено на обеспечение достаточной вычислительной мощности для OpenAI. Также среди клиентов компании NovelAI, Odyssey, Tarteel, Epic Games.
В 2022 году выручка компании составляла около $30 млн. В этом году планируется прогноз по выручке порядка $500 миллионов. К концу 2024 году руководство CoreWeave планирует выйти на уровень более $2 млрд.
Компании, на первый взгляд, кажутся конкурентами. Однако, если погрузиться в детали, таковыми не окажутся. Причина кроется в тонкостях применения их продуктов.
Технологии CoreWeave основаны на системе Kubernetes, которая позволяет по сложным правилам, ориентируясь на динамически изменяющуюся нагрузку, подстраивать и балансировать обрабатывающую инфраструктуру. Такая платформа чаще используется разработчиками и больше подходит для развёртывания уже готовых систем ИИ.
В свою очередь, Lambda Labs со своим продуктом для загрузки инструментов работы с данными, Lambda Stack, сделала ставку на быстрое освоение и начало обучения ИИ-моделей. Чтобы начать процесс обучения ИИ требуется один час и три команды, что особенно ценится аналитиками данных. Такие качества делают площадку Lambda идеальной для обучения искусственного интеллекта.
Сектор B2B в бизнес-модели игроков рынка GPUaaS занимает ведущее место. Несмотря на то что число клиентов из среднего и малого бизнеса будет расти быстрее других, по прогнозам аналитиков, основными потребителями услуг графических процессоров станут компании из категории крупного бизнеса. Интерес цифровых гигантов к Lambda Labs и CoreWeave подтверждает оценки экспертов. Потому смелые, на первый взгляд, прогнозы роста выручки Lambda Labs и CoreWeave, выглядят реалистичными.