Production AI сервер за ₽0: как я собрал машину из хлама, которая генерирует дизайны для лазера

Помните мою статью про локальные LLM за 15 минут? Оказалось, люди хотят не просто знать про ИИ в теории — они хотят его собрать и запустить прямо сейчас. Результат: я потратил выходной на сборку production-grade ML сервера. Без облака. Без подписок. Без зависимости от OpenAI.

Комплектующие для ИИ сервера
Комплектующие для ИИ сервера

Главное: все комплектующие лежали дома без дела. Z390-D материнка, 32GB памяти, четыре SSD — год собирал для других проектов. Решил: зачем этому пыль собирать? Собрал production сервер.

Железо: почему RTX 2060, а не RTX 1060?

Это звучит странно для 2025 года, но две RTX 2060 (2019 года выпуска) работают лучше, чем я ожидал.

RTX 1060 — это прошлый век. Нет NVLINK, не синхронизируются две карты, CUDA Compute Capability 6.1 (слишком старая архитектура). Результат: на 1060 Stable Diffusion генерирует 512x512 за 60+ секунд.

RTX 2060 — другое дело. Tensor Cores, CUDA 7.5, Memory bandwidth на 25% выше. Главное: две карты видят друг друга через PCIe. На обеих 2060 Stable Diffusion генерирует за 35-40 секунд. Итого: 12GB VRAM на двух картах, которые работают параллельно.

BIOS Z390-D (вот это было больновато):

Setting → IO Ports:
Initial Display Output: PCIEX16
Internal Graphics: Disabled
Setting → Miscellaneous:
Re-Size BAR: Enabled
Tweaker → AI Tweaker:
XMP Profile 1: Enabled

Обе GPU видны в nvidia-smi, работают без конфликтов.

Диски: 6 дисков — 4 разные задачи

Главное не смешивать горячие и холодные данные. Моя схема:

  • C: (SSDх2 1ТБ) — ОС + Python (RAID 1 защита!)*
  • D: (HDD 2ТБ) — архив исходных изображений
  • E: (HDD 2ТБ) — архив готовых результатов
  • F: (SSD 1ТБ) — кэш ML операций
  • G: (SSD 1ТБ) — модели Stable Diffusion + YOLOv8 + датасеты

*Вот тут спас Intel EZ RAID. Если накроется один SSD — данные на втором.

Скриншот конфигурации
Скриншот конфигурации

Software: Python 3.12 + PyTorch

40 минут — вот сколько занял весь процесс:

  1. Python 3.12 (5 минут)
  2. Виртуальное окружение venv (3 минуты)
  3. PyTorch + CUDA 11.8 (15 минут — скачивается 2-3GB)
  4. ML библиотеки (5 минут)
  5. Первый тест (10 минут)

Проверка PyTorch:

python -c "import torch; print(torch.cuda.is_available())"
→ True
python -c "import torch; print(f'GPUs: {torch.cuda.device_count()}')"
→ GPUs: 2

Проверка работы генеративной функции и YOLO
Проверка работы генеративной функции и YOLO

Первый тест Stable Diffusion — и РАБОТАЕТ. Изображение 512x512 сгенерировалось за 38 секунд. Обе GPU синхронизируются без проблем.

Что дальше?

Система готова к трём вещам:

  1. Локальные LLM (DeepSeek, Llama) — анализ документов, браinstorming, без облака
  2. Генерация дизайнов (Stable Diffusion) — для лазерной гравировки на ACMER P3
  3. Компьютерное зрение (YOLOv8) — контроль качества готовых изделий

Это то, ради чего мы всё собирали.

Локально vs облако

RTX 2060 Локально
Генерация 512x512 38 сек
Стоимость за 1000 операций ₽0
Конфиденциальность 100%
Работает без интернета ✅ Да
ChatGPT API
Генерация 512x512 20-30 сек (интернет)
Стоимость за 1000 операций ~50 рублей
Конфиденциальность 0% (облако)
Работает без интернета ❌ Нет

Локальное ИИ — это больше не фантастика. Это инструмент.

Кто пробовал собирать ML сервер на старых комплектующих? Какие подводные камни встретили? Пишите в комментарии — напишу Часть 2 про подключение лазера.

Подпишитесь на мой Telegram канал!

4
2 комментария