Почему сквозная аналитика не дает желаемого результата: разбираемся в причинах. Часть 2

Предположим, перед бизнесом стоит задача внедрить сквозную аналитику в проект. Как предусмотреть заранее возможные вызовы, с которыми могут столкнуться команды маркетинга и аналитики? Какие нюансы необходимо предусмотреть, чтобы конечный результат соответствовал ожиданиям бизнеса?

Расскажем, как мы в DataGo! работаем с неочевидными сложностями, которые могут возникнуть в процессе внедрения сквозной аналитики в проект:

  • Получение неполных данных с рекламных площадок;
  • Получение неполных и несвоевременных данных о заказах;
  • Несопоставимость данных;
  • Отсутствие единой системы метрик между командами.

В предыдущем материале мы описывали, как подготовиться к сбору данных. После того, как этап планирования успешно завершен, переходим к сбору данных и интерпретации полученного результата.

Важно отметить, что все проекты индивидуальны, и универсальных решений, которые подошли бы в каждом случае, не существует.

<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.forbes.com%2Fsites%2Flarrymyler%2F2017%2F07%2F11%2Fbetter-data-quality-equals-higher-marketing-roi%2F%3Fsh%3D1421ebce7b68&postId=1384460" rel="nofollow noreferrer noopener" target="_blank">Исследование</a> Forrest Research о необходимости сбора качественных данных
Исследование Forrest Research о необходимости сбора качественных данных

Собираем “сырые” данные

Владея обширной экспертизой в работе с “сырыми” данными, мы сформировали четыре неочевидные сложности, с которыми может столкнуться аналитический проект.

Вызов 1. Собираем “сырые” данные: получение неполных данных с рекламных площадок

Рекламные платформы собирают огромное количество данных о поведении пользователей. Сложности с их получением возникают тогда, когда вы пытаетесь получить эти данные в полном объеме без потерь, что является ключевым приоритетом для многих компаний.

Как собирать полные данные с рекламных площадок?

  • Определите ответственных за сбор и контроль данных с рекламных площадок;
  • Подключите независимый источник данных для сбора “сырых” данных;
  • Используйте автоматические инструменты импорта данных. В случае, если данные недоступны по какой-либо причине, эти инструменты могут показывать существующие пробелы в данных и загружать данные ретроспективно.

Рассмотрим на реальном кейсе:

Клиент: крупнейший ритейлер в РФ, сегмент: мебель и товары для дома.

Инцидент:

Автоматическое обновление версии облачного хранилища ClickHouse (22.8). Особенность новой версии — архитектурные изменения сущности обработки и хранения полей с типом flatten_nested.

Последствие:

Потеря большого количества хитов.

Что было предпринято на стороне DataGo!:

  • После выявления инцидента, код сервиса хитового стриминга был переписан под новую архитектуру ClickHouse уже на следующий день;
  • Провели сверку по потерям хитов за 2 дня между обновлением ClickHouse и изменением кода сервиса.

Решение:

  • Так как паттерны покупательской активности на крупных проектах примерно одинаковые, согласовали метод восстановления данных по образу хитов за предыдущие дни.
  • Усилили систему алертинга подобных инцидентов.

Инциденты такого критического уровня подтолкнули нас к созданию комплексной системы мониторинга. Команда DataGo! разработала обновленную архитектуру DataGo! Web Streaming, более защищенную от внешних угроз. Это позволяет своевременно отслеживать все предпосылки к потере или получению неполных данных и предотвращать подобные инциденты.

Повысьте уровень безопасности ваших данных совместно с DataGo!

Вызов 2. Собираем данные: получение неполных и несвоевременных данных с сайта

Получая полные данные из рекламных площадок и сервисов, мы знаем сумму расхода на продвижение.

🧐 А сколько мы получаем заказов и сколько с них зарабатываем?

Для этого необходимо собирать данные с сайта и мэтчить их с данными из CRM-систем. В таком случае вам также важно убедиться, что собранные с сайта данные полные и не имеют ограничений.

Возможные причины сбора неполных данных с сайта

  • Несвоевременная оплата сервиса для трекинга данных;
  • Использование только UI популярных аналитических сервисов по сбору данных (лк Яндекс Метрики / AppMetrica, а не LogsApi; лк Google Analytics 4, а не экспорт в GBQ);
  • Некорректная разметка событий;
  • Перезапись, дублирование, некорректная разметка в dataLayer;
  • Порядок отработки аналитических скриптов.

Какое решение?

  • Определите требования по разметке событий от бизнеса (какие необходимы отчеты, срезы и воронки);
  • Перенесите бизнес-требования в карту событий (систему метрик);
  • Организуйте кросс-командную работу разработчиков и аналитиков по внедрению и тестированию событий из системы метрик;
  • Используйте сервисы для трекинга данных с доступом к “сырым” и полным данным;
  • Выберите хранилище с автоматическим импортом данных. Это позволит вам своевременно отслеживать возникающие ошибки.

Вызов 3. Готовимся к использованию данных: несопоставимость данных из рекламного источника и с сайта

После того, как данные собраны, их необходимо свести в единую структуру.

Структурированные данные — это единая таблица. Каждый столбец в ней определяет атрибут (например, время или местоположение), а каждая строка представляет собой отдельную запись, значение для каждого атрибута.

В результате различий между форматами данных из нескольких источников, вы можете потерять часть своих данных.

Сложности с объединением данных:

  • Низкое качество данных и их несогласованность.

Непоследовательные, неполные или неточные данные могут привести к проблемам во время трансформации и привести к ошибочным выводам.

  • Безопасность данных.

Обработка конфиденциальной информации при перемещении большого объема данных вызывает риск утечки данных и несоответствия требованиям СБ.

  • Интеграция данных realtime.

Спрос на аналитику в реальном времени вырос, но добиться интеграции данных в реальном времени может быть непросто. Данная сложность может быть особенно актуальной, если речь идет о проектов с большим объемом данных.

Рассмотрим на реальном кейсе:

Клиент: крупнейший ритейл бренд в РФ, сегмент: брендовая одежда и товары для дома.

Задача: объединить данные из web и app в единый отчет.

Сложность заключалась в том, что принципы отслеживания необходимых данных в мобильном приложении и на сайте различные, поэтому для их объединения в единый отчет необходимо привести данные в единую структуру.

👎 Данные, не приведенные к общему формату, невозможно объединить в единый отчет. Это приведет к критичным искажениям в ходе анализа бизнес-показателей.

Источники данных:

  • DataGo! Web Streaming;
  • API-выгрузка из сервиса мобильной аналитики (AppsFlyer, AppMetrica).

Что было предпринято на стороне DataGo!:

  • Сбор web и app данных в едином хранилище (DWH);
  • Привели данные из App к единому формату, схожему на Web, для использования в единой витрине данных;
  • Сформировали пул целевых метрик для принятия стратегических решений;
  • Вывели аналитику в едином дашборде по общим и кросс-девайс показателям эффективности.

Вызов 4. Получаем инсайты: разрозненная интерпретация метрик

Из-за большого объема требуемых данных и метрик, отдел аналитики и маркетинга могут интерпретировать необходимую метрику по-разному. Из-за этого ваш отчет перестанет быть информативным, что приведет бизнес к неверным инсайтам.

Какое решение?

Сформируйте дерево метрик.

Как правило, метрики, на которые обращают внимание руководители компаний (фаундеры, директора и др.), отличаются от метрик, на которые смотрят линейные сотрудники (маркетологи, product owners и др.) Первым необходимо фиксировать верхнеуровневые бизнес-результаты, а вторым — более точечные, локальные показатели.

Необходимо составить единый документ, который поможет понять, что именно вкладывается в каждую метрику на любом уровне отчетности.

Рассмотрим на реальном кейсе:

Клиент: крупнейший частный банк в России, входящий в пятерку крупнейших банков России по объему активов.

Задача: унификация разметки сайта для сбора качественных данных.

Что такое разметка событий - это процесс, при котором разные целевые действия на сайте или в мобильном приложении отмечаются конкретными метками для дальнейшего анализа. Это позволяет аналитикам собирать точные данные о поведении пользователя: загрузка страницы, клики, оформление покупки и др.

Сложность заключалась в том, что текущая разметка событий на сайте в Яндекс.Метрике имела большое количество ошибок и расхождений, например, неверный нейминг событий, скрытые символы, отправка большого количества push_params и др.

👎 Все эти ошибки способствуют получению некорректных и разрозненных данных о поведении юзеров на сайте/в мобильном приложении, и, как следствие, неточные отчеты.

Как мы в DataGo! работаем с разметкой сайта:

  • Собрали бриф и фактуру для погружения в детали. Важно понимать, какие именно задачи решает маркетинг и бизнес за счет получения данных с сайта.
  • Подготовили шаблон с четкими инструкциями, который будет использоваться заинтересованными лицами для создания разметки на целевые элементы сайта. Это позволит обеспечить единообразие сбора данных и упростит их последующую обработку.

Бизнес ценность: все заинтересованные понимают процесс работы разметки сайта. Вся текущая разметка Сайта будет приведена к общему формату, что облегчит навигацию и дальнейшую работу с данными в Яндекс Метрике или в ClickHouse.

  • После внедрения обновленной системы разметки событий сайта, мы сформировали дашборд здоровья. Он позволит команде банка отслеживать актуальность разметки и ее соответствие заданному стандарту.

Бизнес ценность: Проверив реализацию разметки и подтвердив ее корректность, мы получим стабильное и качественное получение web данных с Сайта.

Заключение

К середине 2024 года уже никто не будет спорить с тем, что сквозная аналитика остро необходима для корректной оценки эффективности маркетинга. Обилие маркетинговых и аналитических инструментов привело к возникновению вызовов, которые могут привести бизнес к неожидаемым результатам.

💁‍♀ Мы будем рады, если вы поделитесь в комментариях, сталкивались ли вы со сложностями внедрения сквозной аналитики?

🤩 Какие самые неожиданные инсайты вам удавалось получить на основе анализа данных?

Для того, чтобы подготовиться даже к самым неочевидным сложностям, мы рекомендуем постоянно повышать требуемые навыки внутренней команды, работать над эффективностью кросс-командной работы или обратиться к DataGo!

Почему данным от DataGo! можно доверять?

  • Независимый источник “сырых” данных “, не подверженный санкционным рискам;
  • DataGo! не продает рекламу, поэтому наши данные беспристрастны;
  • Более 100 клиентов в РФ уже доверяют нам работу с данными.

Сфокусируйтесь на бизнесе, а работу с данными оставьте DataGo!

11
Начать дискуссию