Как мы автоматизировали работу с событийкой в беттинге и в 5 раз сократили сроки и бюджет на задачу
Рассказываем, как мы в Ant-Team.ru разработали уникальный инструмент для автоматизации продвижения и аналитики событийных страниц для беттинг-компании и теперь тратим минуты, а не часы на работу с посадочными и выводом их в топ.
Что за клиент и как работали с сайтом
Клиент — букмекерская компания, которая ведет бизнес в России и странах СНГ. Компания полностью легальна, действует на основании лицензий и в соответствии с законами стран присутствия.
Конкуренция в нише очень высокая. Так, еще в 2023 году объем рынка беттинга в России достиг 2,5 трлн рублей, из которых около 1,7 трлн рублей пришлось на онлайн-сегмент. Это на 12% больше, чем в предыдущем году. Увеличение интереса связано с популяризацией онлайн-ставок и активным развитием мобильных приложений.
Для работы с клиентским сайтом использовали несколько стратегий:
- Текстовая оптимизация. Работали с основными страницами, категориями, создавали полезный экспертный контент по теме, генерировали метатеги и т. д.
- Ссылочная оптимизация. Занимались закупкой ссылок, крауд-маркетингом, строили PBN-сеть под сайт клиента.
- Создание сайтов-сателлитов.
Стратегии понятные и рабочие, но для успешного продвижения их недостаточно. Нужна работа с событийным трафиком.
В чем особенности событийных страниц и как мы с ними работали
Трафик с событийных страниц в беттинге — всего лишь доли процентов от общего трафика сайта, но при этом именно событийка генерирует большую часть реальных клиентов и прибыли. Так что без нее не обойтись.
У всех стратегий свои особенности. У работы с событийным трафиком они такие:
- В каждом регионе десятки событий: разные виды спорта, лиги, турниры, матчи. Для каждого мероприятия — своя посадочная, с которой SEO-специалист работает индивидуально.
- Время на продвижение ограничено — страницы существуют от 4 до 14 дней, в десятке лидеров крупные агрегаторы с большими бюджетами. При этом каждое событие должно быстро оказаться в топе поисковой выдачи, иначе не будет клиентов и заработка.
Такие условия требуют четкой и отлаженной системы.
Все это у нас было и работало следующим образом:
Подготовка
- Мы получали список событий от клиента, разрабатывали технические задания на тексты для посадочных страниц.
- ТЗ передавали авторам через собственную биржу.
- Готовые тексты отправляли клиенту и ждали появления посадочной на сайте.
- Когда страница с текстом появлялись на сайте, составляли метатеги, выполняли маркдаун-разметку.
Отслеживание
- Семантику отправляли на отслеживание и ежедневно снимали позиции страниц и ключевых слов, анализировали, как размещенные тексты влияют на позиции.
Все этапы фиксировали в виде статусов в специальной табличке в Google Sheets.
Большую часть работы делали вручную: проверяли наличие посадочных и контента на них, отслеживали позиции, статусы, переносили данные из таблиц в рабочую документацию.
На подготовку одной страницы уходило около 3-4 часов, на ежедневное отслеживание — от 30 до 90 минут в зависимости от активности спортивной жизни региона. В совокупности на эти задачи мы тратили от 15 до 25 часов в месяц.
Почему потребовалась автоматизация и решение собственной разработки
Процесс был выстроен хорошо и давал результаты, но ручная работа — это всегда время, деньги, периодические косяки и куча возможностей для улучшений (что приятно!).
Из-за объема задач (пять рынков, разные виды спорта, чемпионаты, разные типы турниров, разные лиги) случались человеческие ошибки. Ничего критичного, но нужно было потратить время на их поиск и исправление.
Событийные страницы «живут» недолго, так что традиционные инструменты (например, Google Search Console) не давали нам достаточно оперативных данных для корректного анализа. Гугл обновляет данные с задержкой от одного до двух-трех дней и может обрабатывать не все урлы. Это сильно затягивало время аналитики и мешало принятию решений.
Нам нужно было постоянно собирать и анализировать большие объемы данных, подходящего, гибкого и наглядного инструмента для этого не было.
Работу можно и нужно было оптимизировать: настроить отслеживание позиций страниц (в целом и по ключам) в реалтайм-режиме, автоматизировать сбор статусов, чтобы ускорить вывод в топ выдачи, избавиться от ошибок и сократить затраты.
Подходящих готовых решений на рынке не было, поэтому мы взялись за самостоятельную разработку.
Какие требования к решению сформировали
В первую очередь обсудили с клиентом и составили список функциональных и технических требований к решению.
Нужно было следующее:
- Автоматизировать рутинные процессы: парсить данные по событиям, проверять появление страниц на сайте, генерировать ключевые запросы, мониторить наличие текста на посадочных, ежедневно отслеживать позиции.
- Быстро собирать актуальные данные в режиме реального времени сразу из нескольких сервисов: позиции из Spyserp, частотность из Вордстата через сервис XMLRiver.
- Создать дашборды для визуализации данных — удобную аналитическую систему, которая бы позволила группировать данные по типам событий, видам спорта, а также по любым другим характеристикам.
- Стабильная, гибкая инфраструктура: продукт должен всегда работать без задержек.
- Минимальное человеческое вмешательство.
В результате должен был получиться продукт, который связывается с системами клиента и нашими ресурсами, учитывает информацию со статусами работы по каждой событийной странице в отдельной таблице, а после размещения лендинга собирает данные из сервисов аналитики по странице. Сами данные доступны в любой момент в удобном виде на странице с дашбордами.
Как реализовывали
Проектирование пайплайна системы
Начали работу с проектирования базы данных — фундамента всего решения. Определили нужные данные и их структуру. После запланировали последовательность скриптов. В результате представили первый черновой прототип будущей системы.
Разработка
Подняли базу MySQL.
Написали скрипты на Python, которые обращаются:
- к API Google Sheets и забирают данные из нашей сеошной таблички, где мы храним информацию о событиях, статус посадочной (размещена или нет) и данные о размещении текстов на этих страницах;
- SpySERP, откуда собирают позиции запросов и базовую частотность этих запросов из XMLRiver для последующей аналитики позиций страниц.
В первой версии скрипт для сбора данных из Google Sheets «ходил» только в нашу табличку, а ссылки на лендинги с событиями и информацию о наличии текстов добавляли руками наши специалисты. Но в следующих итерациях разработки мы создали скрипт, который обращается к таблице клиента и забирает данные оттуда.
Визуализация
Создали простой, но интуитивно понятный дашборд в Google Looker Studio с фильтрацией и выводом основных метрик: позиции страниц, количество урлов в топ-10, частота запросов.
Сроки разработки
Базовая версия продукта была готова за (барабанная дробь) 16 часов.
Доработки — запуск парсинга сайтов и расширение функциональности — заняли еще 33 часа.
Первый вариант протестировали в рамках рабочих процессов клиента — в реальном времени, а затем быстро внедрили в продакшн.
Как все работает
На стороне клиента ничего менять не пришлось — все данные из клиентских таблиц (вид спорта, турнир, название и время события) автоматически парсятся с помощью Python-скриптов.
- После появления страницы в SEO-таблицах (там собрана информация о событиях, соответствующие им страницы и т.д.) инструмент автоматически генерирует ключевые запросы. Использует название события и несколько триггерных слов: «ставки», «коэффициенты», «поставить». Ключевые слова записываются в нужный файловый формат без участия специалистов.
- Сгенерированная семантика отправляется автоматически на отслеживание в SpySERP по API.
- Ежедневно SpySERP проверяет позиции по сгенерированным ключам в поисковой выдаче, ну а мы забираем эти данные себе в БД.
- Один из внедренных модулей ежедневно проверяет наличие текстов на страницах: если текст размещен, в таблице появляется соответствующий статус и дата.
- Вся информация о позициях (а также о самих событиях, статусах страниц) выводится в Google Looker Studio на дашборды в виде наглядных графиков и таблиц. Фильтрация позволяет группировать данные по видам спорта, чемпионатам, либо иным характеристикам.
После завершения события данные автоматически удаляются из системы сбора позиций SpySERP, освобождая ресурсы.
К каким результатам пришли
В итоге клиент получил инструмент, который полностью автоматизирует рутинные процессы, позволяет в режиме реального времени отслеживать изменения позиций страниц, выполнять быструю аналитику.
Мы стали тратить на 2-3 часа меньше на подготовку к созданию событийных страниц, а ежедневный процесс отслеживания теперь занимает не больше 10 минут.
Стоимость текстов для посадочных сократилась в 3 раза: SEO-специалистам не приходится тратить время на формирование ключевых слов, ТЗ для текстов готовятся быстрее.
Автоматизация прошла настолько удачно, что работа SEO-специалистов свелась практически к нулю. А точнее, к одной-единственной задаче — передавать клиенту готовые тексты.
Еще один бонус: автоматизация рутинных процессов свела вероятность человеческой ошибки к минимуму.
Пока решение сосредоточено на задачах конкретного клиента, но его можно адаптировать к любому бизнесу и расширить поле применения. Например, использовать для интеграций с инструментами аналитики пользовательского поведения, прогнозирования эффективности страниц и анализа, а также разрабатывать дополнительные плагины для работы с данными.
Конкретно сейчас пожеланий по доработке продукта у заказчика нет. Но, возможно, они появятся, ведь клиент подключает к работе с дашбордом всё больше своих специалистов.
Если у вас есть задача по созданию кастомного инструмента для автоматизации рутинных задач, связанных с SEO, и вы ищете способы оптимизировать процессы, повысить эффективность работы, напишите нам в телеграм. Будем рады помочь!
Авторы: Анна Чечкова (руководитель отдела аналитики в Ant-Team.ru) и Денис Мещеряков (руководитель SEO-отдела в Ant-Team.ru).
Подписывайтесь на наш телеграм-канал, чтобы первыми узнавать о выходе новых материалов. И смотрите наши бесплатные обучающие видео на YouTube, VK и Rutube.
Привет! В этом кейсе расскажу, как мы разработали сайт для крупной машиностроительной компании. Объясним, почему решили создать самописную систему управления контентом, а еще покажем, почему иногда использовать тексты из ChatGPT — хорошее решение.
Сделать результат с нуля проще, чем улучшать существующий. Иногда после долгой работы в проекте глаз специалиста «замыливается», и он не видит новых возможностей. Свежий взгляд со стороны может натолкнуть на интересные идеи и гипотезы. Рассказываем, как мы нашли новые решения, загрузили производство заказами, снизили стоимость лида и увеличили сред…
Каждый день мы сталкиваемся с вопросом: что приготовить?
ИИ-Ассистент для Вашего Здоровья
Привет! На связи Дима Зароченцев — руководитель агентства «Польза». Сегодня расскажу, как 4 года назад мы начали работу над SEO-продвижением event-сайта одного из первых клиентов и к каким успехам нам удалось прийти сейчас. В этом кейсе есть всё: кризисные пандемийные условия, ограничения по времени и бюджету и, разумеется, креативные решения.
Конкуренты забирают клиентов, сайт для поисковиков словно невидимка, а контекстная реклама больно бьёт по карману. Прибавьте к этому кризис: часть оборудования ушла с рынка, курс скачет, и цены невозможно зафиксировать. Как при таких непростых вводных удалось на 100% вырастить поисковый трафик и увеличить число лидов — рассказываю в кейсе.
На создание этой статьи нас вдохновило интервью Михаила Гребенюка с сооснователем White Rabbit Family Борисом Зарьковым, который для более эффективного управления бизнесом использует дашборды.
Обожаю такие полезные истории про автоматизацию. Кто у вас идеолог этого процесса — веб-аналитик, или сеошники сами умеют в автоматизацию?
У нас классный отдел аналитики!
Это прям высший пилотаж в автоматизации! Создать за столь короткое время инструмент, который экономит столько часов команде и денег клиенту, это просто супер! Молодцы!
Спасибо! Как уже писали выше, у нас классный отдел аналитики. Постоянно облегчают работу сеошникам и помогают увеличивать прибыль клиентам
Интересно, что базовая версия была готова всего за 16 часов. Это очень быстрый срок для такого рода автоматизации.
И еще любопытно, почему выбрали именно SpySERP? Был какой-то функционал, который оказался критично важным?
Получилось довольно быстро, так как работали с уже знакомыми инструментами и не пришлось искать и изучать что-то специфическое. Со SpySERP мы работаем с лета 2023 года и выбрали его, так как он полностью подходил под наши задачи.
Вот, кстати, наша история переезда на этот сервис - https://vc.ru/services/1467861-kak-my-sozdali-sobstvennuyu-bazu-dannyh-i-pereehali-iz-dorogogo-seowork-v-novyi-servis
Фига комментов наколотили. Это вы подписчиков из своей телеги попросили? :D