Как мы построили мультиагентную AI-систему для автоматизации контент-продакшена и сэкономили клиенту 9.5 млн руб/год

TL;DR: Заменили команду из 7 человек системой из 6 AI-агентов для медиахолдинга с аудиторией 3+ млн. ROI — 5 месяцев, рост ключевых метрик на 45-69%. Работаем с гарантией 100% возврата средств.

Контекст проекта

Клиент: Медиахолдинг, специализирующийся на спортивном контенте

  • Несколько YouTube-каналов, суммарно 3+ млн подписчиков
  • Команда: 5 сценаристов (600к/мес) + 2 аналитика (320к/мес)
  • Объем: 120+ сценариев в месяц

Проблема:

  • Выгорание команды → шаблонный контент
  • Игнорирование трендов и аналитики
  • Рост ФОТ при падении качества

Важно: Клиент уже пробовал GPT-5 и Claude Sonnet 4 напрямую — получал "пластиковые" тексты без понимания контекста.

Почему direct prompting не работает

Анализ провала первых попыток клиента:

❌ GPT-5 выдавал: "Сегодня мы поговорим о захватывающем матче между командой А и командой Б. Это была поистине эпическая битва..."

✅ Наша система выдает: "Мбаппе провел худший матч в карьере — 0 ударов в створ, 62% точности передач. Для сравнения: в матче против Аргентины в 2018-м у него было 4 удара в створ при 89% точности..."

Корневые проблемы single-agent подхода:

  • Нет специализации по задачам
  • Отсутствие feedback loop с аудиторией
  • Игнорирование платформенной специфики
  • Галлюцинации без fact-checking слоя

Архитектура решения

graph TD A[Research Agent] -->|Тренды и инсайты| B[Topic Selection Agent] B -->|Выбранная тема| C[Content Architect Agent] C -->|Структура| D[Content Writer Agent] D -->|Черновик| E[Fact-Checking Agent] E -->|Проверенный контент| F[QA Agent Claude] F -->|Финальная версия| G[Publishing] G -->|Через 2 недели| H[Analytics Agent] H -->|Обратная связь| B

Детализация агентов

1. Research Agent (QWEN 2.5 72B)

sources = [ "reddit_api": {"subreddits": ["soccer", "football"], "sort": "hot"}, "twitter_api": {"trends": True, "hashtags": tracked_tags}, "forums_parser": {"sites": ["sports.ru", "pikabu.ru/sports"]} ]
  • Парсинг 500+ источников в реальном времени
  • Sentiment analysis комментариев
  • Выявление emerging topics через spike detection

2. Topic Selection Agent (GPT OSS 120B)

  • Предиктивная модель CTR на основе 50k исторических видео
  • Анализ конкурентов (top-20 каналов категории)
  • Scoring система: score = 0.4*predicted_ctr + 0.3*trend_velocity + 0.3*competition_gap

3. Content Architect + Writer Agents (QWEN 235B)

🔑 Ключевой инсайт: детализированные персоны

persona = { "identity": { "name": "Артём Волков", "age": 28, "location": "Санкт-Петербург" }, "background": { "education": "Журфак СПбГУ, 2018", "career": [ "2018-2020: Sports.ru, младший редактор", "2020-2022: Матч ТВ, сценарист", "2022-now: Фриланс" ], "personal": { "played_football": "Юношеская команда Зенита до 17 лет", "injury": "Разрыв крестообразных связок → конец карьеры", "fan_of": "Зенит с 7 лет, был на всех домашних матчах 2008 года" } }, "writing_traits": { "uses_slang": ["офсайдная ловушка", "девятка", "автобус у ворот"], "references": ["исторические матчи", "личный опыт игры"], "biases": ["не любит VAR", "скептичен к PSG после ухода Месси"] } } # Критически важно: личность подается в system prompt agent = ChatAgent( model="qwen-235b", # Именно эта модель лучше всего работает с персонами system_prompt=json.dumps(persona), temperature=0.8 )

Эффект: AI начинает добавлять детали "из памяти", делая контент уникальным и живым.

4. Fact-Checking Agent (GPT OSS 20B)

  • API-интеграции: Opta Sports, Transfermarkt, официальные сайты клубов
  • Cross-validation минимум по 3 источникам
  • Флаги для сомнительных фактов

5. QA Agent (Claude Sonnet 4)

  • Используем дорогую модель только здесь (экономия 70% на API costs)
  • 47-point checklist качества
  • Может вернуть на доработку конкретному агенту

6. Analytics Agent (QWEN 2.5 72B)

  • Работает через 14 дней после публикации
  • Анализирует YouTube Analytics API + комментарии
  • Обновляет веса в Topic Selection Agent

Техническая реализация

Стек

Core: - Python 3.11 - LangChain (оркестрация) - Django 5.0 (API + админка) Async: - Celery + Redis - Batch processing для экономии API calls Storage: - Supabase Vector (embeddings истории) - PostgreSQL (метаданные) - S3 (готовый контент) Models: - QWEN 235B (основная модель для контент-агентов) - QWEN 2.5 72B (research и analytics) - Claude Sonnet 4 (QA только) - GPT OSS 120B/20B (вспомогательные задачи) Monitoring: - Grafana (метрики системы) - Sentry (errors) - Custom dashboard (бизнес-метрики)

Оптимизация costs

Fallback стратегия:

model_cascade = [ {"model": "qwen-2.5-72b", "cost": 0, "timeout": 30}, {"model": "glm-4.5", "cost": 0.002, "timeout": 45}, {"model": "claude-sonnet-4", "cost": 0.015, "timeout": 60} ]

Кэширование:

  • Semantic cache (Supabase Vector) — 40% hit rate
  • Reuse похожих структур статей
  • Batch API calls (экономия до 50%)

Результаты

Продуктовые метрики (30 дней)

Как мы построили мультиагентную AI-систему для автоматизации контент-продакшена и сэкономили клиенту 9.5 млн руб/год

Операционные метрики

Как мы построили мультиагентную AI-систему для автоматизации контент-продакшена и сэкономили клиенту 9.5 млн руб/год

Экономика

ROI расчет:

Инвестиции: - Разработка: 1.8 млн руб - Срок: 2.5 месяца Ежемесячная экономия: - Было: 920к (ФОТ) + 200к (ChatGPT API) = 1,120к - Стало: 180к (редактор) + 150к (система) = 330к - Экономия: 790к/мес ROI period: 1,800,000 / 790,000 = 2.3 месяца Годовая экономия: 9.48 млн руб

Важно: Мы работаем с гарантией 100% возврата средств при неудовлетворительном результате.

Масштабирование: v2.0

Сейчас внедряем омниканальную адаптацию:

content_pipeline = { "youtube_main": base_scenario, "youtube_shorts": extract_hooks(base_scenario, n=3), "instagram_posts": segment_for_carousel(base_scenario, n=5), "tiktok": optimize_for_algorithm(base_scenario), "podcast": convert_to_conversational(base_scenario), "telegram": create_digest(base_scenario) }

Разные модели для разных форматов:

  • Shorts: фокус на hook (первые 3 сек)
  • Instagram: визуальные якоря для каруселей
  • Podcast: conversational tone, добавление пауз

Lessons Learned

✅ Что сработало

  1. Специализация агентов — каждый делает одну задачу отлично
  2. Детализированные персоны — критически важны для "живого" контента
  3. Feedback loop — система учится на каждой публикации
  4. Гибридный подход — open-source для 70% задач, premium для критических

❌ Ошибки

  1. Изначально 3 агента — пришлось расширить до 6 для качества
  2. Игнорировали комментарии — добавили sentiment analysis
  3. Single persona — теперь ротируем 3 персоны для разнообразия
  4. Синхронная обработка — переписали на async, ускорение в 3x

💡 Неочевидные инсайты

  • Персона важнее размера модели — QWEN 235B с персоной дает лучший результат, чем любая другая модель без детализированной личности
  • Batch processing критичен — экономия до 50% на API
  • Микс моделей оптимален — не нужен Claude для всего
  • 2 недели для аналитики — оптимальный период для YouTube

Технические детали для самостоятельной реализации

Минимальный код для создания персонализированного агента:

from langchain import ChatOpenAI, SystemMessage, HumanMessage import json def create_persona_agent(persona_dict, model="qwen-235b"): """ Создает агента с детализированной личностью """ system_prompt = f""" You are {persona_dict['name']}, {persona_dict['age']} years old. Background: {json.dumps(persona_dict['background'])} Writing style: {json.dumps(persona_dict['style'])} IMPORTANT: You truly embody this persona. Draw from your experiences when writing. Make references to your past. """ llm = ChatOpenAI( model=model, temperature=0.8, base_url="your_api_endpoint" # OpenRouter/HuggingFace ) def generate(prompt): messages = [ SystemMessage(content=system_prompt), HumanMessage(content=prompt) ] return llm(messages).content return generate # Использование writer = create_persona_agent(persona_dict) scenario = writer("Напиши сценарий про вчерашний матч")

Что дальше?

Планируем открыть API для системы. Потенциальные применения:

  • Новостные агрегаторы
  • E-commerce (описания товаров)
  • EdTech (адаптация учебных материалов)
  • Corporate blogs

Для связи:

Вопросы для обсуждения:

  • Как решаете проблему consistency при мультиагентном подходе?
  • Какие метрики используете для оценки "живости" AI-контента?
  • Кто пробовал fine-tuning для персонализации? Стоит ли овчинка выделки?

P.S. Если нужна помощь с внедрением подобной системы — пишите. Работаем с гарантией результата.

P.P.S. У меня есть телеграм-канал про AI-кейсы с целыми 50 подписчиками. У вас есть уникальная возможность стать 51-м и потом рассказывать, что были там до того, как это стало мейнстримом. Пишу про реальные внедрения, без хайпа и "AI заменит всех".

2
1 комментарий