GB200 от Nvidia обеспечивает 10-кратное ускорение для моделей ИИ
Nvidia объявила, что ее стойковая система GB200 NVL72 обеспечивает 10-кратное повышение производительности для передовых ИИ-моделей с архитектурой mixture-of-experts по сравнению с предыдущим поколением H200. Рывок в производительности демонстрируют такие топовые модели, как Kimi K2 Thinking, DeepSeek-R1 и Mistral Large 3.
Система соединяет 72 GPU Blackwell с помощью технологии NVLink Switch в единый процессор, обеспечивающий 1,4 экзафлопса ИИ-производительности, устраняя узкие места, которые ранее ограничивали распределение экспертов восемью GPU, и позволяя моделям mixture-of-experts — которыми в этом году пользуется более 60% открытых ИИ-релизов — эффективно масштабироваться.
Крупные облачные провайдеры, включая Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure, внедряют системы GB200 NVL72. 10-кратный рост показателя «производительность на ватт» радикально меняет экономику ИИ-сервисов, позволяя получать в 10 раз больше дохода от токенов.