Космические дата центры для ИИ: зачем их строят и почему это пока больше шоу
Стартап Starcloud при поддержке Nvidia впервые продемонстрировал «ИИ в космосе»: на орбитальном спутнике Starcloud‑1 с H100 запустили и обучали модели (Google Gemma и NanoGPT по Шекспиру), отправив на Землю «шекспировское» приветствие. Формально — историческое событие: полноценное обучение нейросети в космосе.
Но автор подчёркивает: пока это скорее эффектная демонстрация возможностей и инвестиционного «сторителлинга» Кремниевой долины, чем реальный прорыв.
Зачем вообще ИИ‑дата‑центры в космосе
Космосом заинтересовались не только стартапы:
- Сундар Пичаи (Google) уже публично говорил о планах к 2027 году начать строить космические AI‑дата‑центры, чтобы использовать фактически безграничную солнечную энергию (мощность Солнца — в 10 трлн раз больше совокупного энергопотребления Земли).
- Илон Маск хочет в течение 4–5 лет, используя Starship и Starlink V3, вывести в космос инфраструктуру суммарной мощностью около 100 ГВт.
Причина проста: энергия.
- В Китае ключевая проблема — дефицит передовых чипов и GPU.
- В США — дефицит электроэнергии и устаревшая энергосеть, которая не успевает за взрывным ростом дата‑центров.
ИИ — гигантский потребитель энергии: только ChatGPT, обслуживая ~200 млн запросов в день, тратит около 500 000 кВт·ч — как маленький американский город в сутки.
По оценке EIA, к 2030 году AI‑дата‑центры (AIDC) могут потреблять до 347 ГВт. Без электричества любые вложенные триллионы в модели и инфраструктуру превращаются в «железный хлам».
В космосе же:
- нет облачности;
- в солнечно‑синхронной орбите панели дают примерно в 5 раз больше энергии на м², чем на Земле (оружие класса: 1 м² арсенид‑галлиевых панелей — до 300 Вт в космосе против ~60 Вт на земле).
Отсюда логика: вынести часть вычислений туда, где солнце «почти бесплатно» и в избытке.
Почему Китай (и не только) не спешит в эту гонку
Дело не в уровне ракет или спутников, а в двух почти нерешённых инженерных проблемах:
- Отвод тепла
- В околоземном космосе средняя температура около −120 °C, но там почти идеальный вакуум.
- Конвекцией тепло не отвести, остаётся только излучение (радиационный теплообмен), что крайне неэффективно.
- Поэтому у спутников, помимо солнечных панелей, есть огромные радиаторы.
- Для дата‑центра мощностью 1 ГВт нужно, по оценке автора, примерно:
- 200 000 м² радиаторных панелей,
- свыше 1000 тонн конструкции.
- Даже при грузоподъёмности Starship ~150 т потребуется примерно 10 запусков только ради системы охлаждения, не считая самой вычислительной части.
- Космическая радиация и «single‑event upset» (SEU)
- Высокоэнергетические частицы (космические лучи) могут случайным образом менять состояние бита в электронике: 0 → 1 или 1 → 0.
- Железо физически не разрушается, но данные и вычисления искажаются.
- Для бытовых ПК или смартфонов это почти незаметно, но для матричных вычислений на GPU даже небольшие ошибки могут полностью «сломать» результат.
- Поэтому космические чипы обычно делаются по старым техпроцессам — 90 нм, 130 нм и т.п., а не 2 нм: более крупные элементы устойчивее к радиации, но намного менее энергоэффективны и производительны.
Именно сочетание почти нерешаемого охлаждения и жёстких требований к радиационной защите делает полноценные космические AI‑дата‑центры пока экономически и инженерно сомнительными.
Вывод: пока больше PR, чем продакшн
И Starcloud, и громкие анонсы Google/Musk важны как:
- демонстрация технических возможностей;
- проверка идей на малых прототипах;
- красивый инвестиционный нарратив («мы первые, кто обучил ИИ в космосе»).
Но до тех пор, пока:
- не будет прорыва в радиационно‑стойкой, но производительной электронике,
- не появятся эффективные и относительно лёгкие радиационные экраны и радиаторы,
космические AI‑дата‑центры остаются, по сути, экспериментальными витринами.Реальную нагрузку и основную экономику ИИ ещё долго придётся держать на Земле — с её проблемами старых энергосетей, дефицита генерации и споров вокруг атомной энергетики.