{"id":14271,"url":"\/distributions\/14271\/click?bit=1&hash=51917511656265921c5b13ff3eb9d4e048e0aaeb67fc3977400bb43652cdbd32","title":"\u0420\u0435\u0434\u0430\u043a\u0442\u043e\u0440 \u043d\u0430\u0442\u0438\u0432\u043e\u043a \u0438 \u0441\u043f\u0435\u0446\u043f\u0440\u043e\u0435\u043a\u0442\u043e\u0432 \u0432 vc.ru \u2014 \u043d\u0430\u0439\u0434\u0438\u0441\u044c!","buttonText":"","imageUuid":""}

Механика работы сервисов сквозной аналитики, или почему Google Data Studio и Power BI — это не совсем сквозная аналитика

Всем привет! Я Лаптев Алексей, основатель и главный разработчик сервиса бесплатной сквозной аналитики и коллтрекинга Utmstat, а также Telegram-канала про сквозную аналитику.

Сегодня расскажу почему Google Data Studio и Power BI не совсем подходят для сквозной аналитики и чем лучше более специализированные сервисы.

Почему Google Data Studio и Power BI - это не готовое решение для сквозной аналитики

Если коротко, то 2 причины:

  • Для 100%-й сквозной аналитики нужны 100% размеченные данные в строго определенном формате.
  • Google Data Studio и Power BI это инструменты визуализации, а не сбора данных и они не могут обеспечить качественный сбор данных, на основании которых можно принимать какие-то решения. Все красиво, но если исходные данные с пробелами - бесполезно.

Пример дырявого источника данных для аналитики

Примерно так выглядят типовые исходные данные по продажам, на основе которых строятся отчеты в GDS и Power BI на примере платной рекламы в Яндекс Директ.

Как видим в наборе данных есть пустые места.

Почему? А вот почему:

  1. Маркетолог не умеет в грамотные UTM-метки
  2. Маркетолог не понимает механики, как собираются и склеиваются данные и внедряет свои уникальные методики.
  3. Маркетолог делает "качественную ручную" рекламу/аналитику
  4. Маркетологу/владельцу бизнеса религия не позволяет заплатить несущественные деньги за автоматизацию, лучше потратить несоизмеримо больше своего времени, но не заплатить.
  5. Кривая интеграция сайта и CRM с системой аналитики.

Все это выливается в то, что в один прекрасный момент данных становится много и маркетолог теряет контроль над ними.

Вроде из далека цифры какие-то есть, графики какие-то строятся, но на самом деле данные искажены и по ним нельзя делать выводы.

Но GDS и Power BI вам об этом не скажут, у них все хорошо - графики крутятся, аналитика строится.

Пример полноценного источника данных для аналитики

А вот это уже идеальный датасет. Лучше не сделать.

Каждая продажа имеет номер кампании, номер объявления, номер фразы, фразу и еще десяток параметров в нескольких атрибуциях, актуальных для веб-аналитики.

Аналогичные датасеты есть по кликам, событиям, расходам.

К сожалению такое качество исходных данных не достижимо простой перерисовкой интерфейса Google Analytics в Google Data Studio или Power BI.

Там все гораздо сложнее. Пришлось писать целый сервис, который решает эту сложную задачу - просто.

Как гарантированно получать качественный датасет?

Очень просто и сложно одновременно, надо контролировать всю цепочку:

Тут противникам сервисов сквозной аналитики пламенный привет.

Сервисы сквозной аналитики (по крайней мере UTMSTAT) в автоматическом режиме имеют возможность проверять миллионы кликов, событий и продаж и найдут в ошибку в разметке в одном клике из миллиона, а живой человек нет.

В итоге получается честная рабочая гарантия что данные собраны качественно.

Вывод

Google Data Studio и Power BI это несомненно мощные и полезные инструменты визуализации данных, но без качественных исходных данных пользы от них 0, а контролировать сбор данных они не умеют.

Основные механики сервисов сквозной аналитики для сбора точных данных

Задача сервисов сквозной аналитики

Среди новичков и противников платных сервисов сквозной аналитики, бытует мнение, что сервисы сквозной аналитики продают воздух и данные, которые можно посмотреть в метрике или аналитиксе.

На самом деле сервисы сквозной аналитики продают аутсорс технической и аналитической экспертизы, позволяющей в кратчайщие сроки соединить десятки сервисов и получить необходимые вам отчеты с гарантией работы.

Вместо найма программиста и аналитика с ФОТ в 200 000 - 300 000 в мес, вы получаете готовый продукт за 2000-3000 руб мес уже завтра. Прекрасно же?

На рынке мало хороших специалистов, а те что есть, в месяц стоят дороже чем годовая подписка на сервис.

В итоге когда вы "экономите" и выбираете "бесплатный" сервис типа Google Data Studio - сразу закладывайте и считайте время и стоимость его подключения.

У вас получится 2 варианта:

  1. Подключения бесплатного сервиса неизвестным специалистом без гарантий с парой месяцев отладки и нервотрепки за десятки и сотни тысяч рублей оплаты труда специалистов
  2. Подключение платного сервиса стоимостью от 20000 руб (в год!), при этом получаете гарантированный результат в течение недели и проверенный на множестве клиентов.

Что выгодней?

Client ID - основа сквозной аналитики

В основе любого сервиса аналитики, будь то метрика, analytics или любой другой, лежит уникальный идентификатор пользователя, который хранится в cookies браузера и не удаляется в течение длительного времени.

В разговорах он обычно называется client id или cid.

Вот он, на примере Google Analytics

Благодаря этому факту, сквозная аналитика имеет возможность привязать все действия на сайте и дальнейшие продажи к конкретному клиенту.

В итоге получается детальный лог действий клиента с точностью до клика, на основании которого можно строить много интересных отчетов.

Выглядит это примерно так:

Сейчас любой сервис, который строит хотя бы минимальную аналитику, помечает каждого посетителя своим client id.

Возможность отслеживать все действия пользователя на сайте крайне полезна для понимания что он там делает и как ему лучше продавать.

Client ID и GDPR + запрет Cookies

Нездоровая истерия о персональных данных с запретом Cookies и тенденцией к блокировке к сожалению больше похоже на охоту на ведьм малограмотной инквизицией.

Сквозная аналитика это как МРТ/КТ/рентген бизнеса в интернете - показывает проблемы на ранней стадии и не дает плохо кончить.

Поэтому не нужно боятся что вас отслеживают, пока вы сами не оставите свои личные данные - никто не узнает кто вы, а вот поддерживать рентабельность бизнеса такой трекинг очень помогает.

Как сквозная аналитика подключается к сайту

Очень просто - ставится небольшой кусок кода на сайт, по аналогии с Яндекс Метрикой или Google Analytics.

Вот так:

Это код подтягивает js файл со всей логикой - регистрация кликов, подмена номеров и прочее.

У каждого сервиса формат разный, но суть одна.

Как считаются клики и почему количество между сервисами не совпадает

Довольно частый вопрос от клиентов аналитики: "Почему в сервисе X не сходятся клики с сервисом Y?"

Обычно это "сквозная аналитика VS метрика" или "метрика VS google analytics".

Причин несколько:

  • Разный алгоритм регистрации кликов
  • Разные цели регистрации кликов
  • Способность кода счетчика работать на разных устройствах и браузерах

Например у метрики и analytics основная задача - считать трафик и они могут быстро фиксировать клики, при этом фильтровать ботов.

А в UTMSTAT задача получить максимум данных об источнике продажи, в том числе client id метрики и analytics. Поэтому клик регистрируется не сразу, а с задержкой в 1-2 секунды.

При таком подходе будет упущен трафик от ботов, которые зашли/вышли, но по реальным покупателям будет максимум информации.

Вот поэтому количество кликов в сервисах различается.

Не стоит переживать по этому поводу, критично чтобы сходились расходы и продажи.

Зачем самостоятельно считать клики, когда есть Google Analytics?

Чтобы построить такой сквозной отчет, в котором цифры будут сходиться, нужны качественные исходные данные без дыр.

Если работать на базе API Google Analytics, то мы теряем контроль над качеством данных по трафику и событиям. Вот так:

В итоге приходится работать с кривыми данными, которые отправил туда маркетолог под дудку Google.

А если собирать данные самостоятельно, то получаем контроль над всеми участниками процесса + возможность собирать данные в идеальном формате для аналитики.

Контролируем все:

Поэтому если какой-то сервис хвалится что он работает на базе Google Analytics, это конечно продающее утверждение, но с точки зрения реальной пользы, это минус.

Зачем для сквозной аналитики UTM-метки

С технической точки зрения - передать номера кампаний, объявлений, фраз и некоторую другую информацию чтобы можно было точно связать рекламные источники, расходы и продажи по id-шникам, а не случайным креативам маркетологов.

Правильный формат очень важен, почему? Читайте здесь.

Как определяется рекламных источник

По комбинации utm-меток, реферера и информации о рекламных кампаниях.

Тут нет какого-то четкого стандарта, в каждом сервисе алгоритм разный, но результат +/- одинаковый.

Как считаются расходы

Банально. Парсится апи рекламных площадок, того же директа.

Но тут есть нюанс.

Для упрощения архитектуры, расходы группируются по дням и нельзя получить расходы на 12.00 дня сегодня, а потом еще вечером.

Расходы парсятся 1 раз вчерашний день или ранее.

Поэтому "за сегодня" расходы в статистике обычно 0.

Да и это в целом не проблема, так как анализировать нужно на дистанции, а не считать каждый клик и копейку в реалтайме.

Нам нужен отчет с данными для принятия решений, а не реалтайм дашборд для отслеживания текущего статуса.

Как считается атрибуция

Атрибуция - это ваше субъективное мнение, какой рекламный источник считать принесшим продажу, если клиент посетил их несколько.

Подробнее можете почитать в справке Яндекс Метрики.

Атрибуция считается на основании истории кликов.

Сервис сквозной аналитики, самостоятельно собирающий клики может строить любые атрибуции, но на практике используется в основном Первый переход и Последний значимый переход.

Среди продвинутых аналитиков и коучей, часто идут споры о том какая атрибуция правильная и где какую использовать, при этом если попросить математическое обоснование, то ответа скорее всего не получите.

На практике об атрибуции думает минимум клиентов.

У многих продажи идут с 1-2 источников, а на реальных многоканальных последовательностях элементарно не набирается достаточно статистики, чтобы делать там какие-то выводы.

Поэтому заморочки с атрибуцией это удел весьма небольшого числа участников рынка.

Как работает кроссдевайсный трекинг

Никак.

К сожалению сейчас нет простого и надежного способа распознать клиента на разных устройствах.

Да, можно заставлять его логиниться на сайте, вводить email/телефон, но это будет 1% от трафика и ни о какой точности данных речи тут не идет.

Даже Google тут пока бессилен.

Как работает кроссдоменный трекинг

В рамках одного устройства посетителя можно распознать по фингерпринту. Формулу не скажу, но работает надежно.

Как работает офлайн трекинг

Тут сложно, должно совпасть 2 события:

  1. Клиент оставил на сайте свой email/телефон и рекламный источник зафиксирован
  2. Клиент при покупке в оффлайне также оставил своей email/телефон.

В этом случае по email/телефон можно будет определить рекламный источник офлайн продажи. Но так как далеко не все оставляют свои данные при продаже, точность данных тут тоже весьма низкая.

Зачем нужна встроенная CRM?

Для обеспечения высокой точности аналитики по продажам и быстрого поиска проблем в этой самой аналитике.

Иногда бывает что отчеты "врут" и именно возможность разложить цифры из отчетов на реальные сделки в CRM позволяет доказать что цифры правильные или быстро найти причину ошибки.

Нет эффекта черного ящика.

А вот использовать встроенную CRM для построения полноценных бизнес-процесс не рекомендуется, тут лучше использовать популярные решения типа Bitrix24 или AmoCRM.

Поэтому если в вашем сервисе аналитики нет CRM, куда стекаются все типы заявок, то это серьезный минус и высокая вероятность что в отчетах данные расходятся с реальностью.

Как происходит взаимодействие между сервисами

Вебхуки

Это когда внешний сервис на какое либо событие (новый лид) отправляет в сервис сквозной аналитики запрос.

По такой схеме идет работа с CRM, онлайн-чатами и прочими захватчиками лидов.

Парсинг API по расписанию

Это когда в определенное время делается запрос к апи внешнего сервиса. Обычно раз в сутки.

По этой схеме собираются расходы.

Почему надо работать в популярных сервисах

В первую очередь это касается CRM и различных онлайн-чатов с квизами.

Сервисы сквозной аналитики обещают простую интеграцию и это в целом действительно так. Но достигается это весьма сложной и дорогой разработкой.

Себестоимость подключения нового сервиса может стоить 100 000 руб и выше, поэтому noname-сервисы, которыми пользуются 1.5 человека не подключаются.

Поэтому если вы нашли супер бесплатную CRM о которой никто не знает, приготовьтесь страдать.

Вы будете платить 0 руб за CRM, но потратите сотни тысяч рублей на костыли с аналитикой или останетесь вообще без нее.

Поэтому сильно дешевле работать в платных, но популярных сервисах.

Почему важно автоматизировать работу со сквозной аналитикой

Работая со множеством клиентов и как следствие, имея большую выборку, можно смело утверждать что на рынке весьма плохо с квалификацией и системным подходом.

Инструментов аналитики много, а пользоваться ими грамотно мало кто умеет.

Поэтому чтобы максимально снять зависимость вашего бизнеса от квалификации конкретного человека, лучше переложить максимум задач на что-то автоматическое.

Мы в UTMSTAT так же столкнулись с проблемой, что у клиентов нет понимания что делать, объяснять всем - времени нет, читать инструкции - не хотят.

Поэтому сделали робота, который делают черновую аналитику и следить за всеми возможными проблемами, благо сервис собирает все данные самостоятельно и к ним есть прямой доступ.

Теперь достаточно послать клиента на страничку робота и он клиенту все объяснит, а отсутствие замечаний робота гарантирует что у клиента сквозная аналитика настроена грамотно и ее данным можно верить.

Это как раз пример здоровой автоматизации и data-driven подхода.

Выводы

1. Google Data Studio и Power BI это весьма приблизительная сквозная аналитика.

Графики красивые, но насколько точны и достаточны данные - они это не контролируют.

2. Сбор исходных данных сложная задача и выгодней ее делегировать сервису

Чтобы увязать расходы и продажи, недостаточно спарсить апи рекламных площадок и CRM, и что то свести в Google Data Studio.

Нужно еще иметь информацию по кликами и все это увязать в определенную структуру БД, чтобы иметь возможность строить нужные отчеты.

А также контролировать все процессы, чтобы вовремя исправить ошибки маркетолога.

Все это нетривиальная задача, поэтому если вы не готовы погрузиться на ближайшие 1-2 года в разработку аналитики, лучше и не начинать :)

3. Стройте бизнес на связке популярных сервисов

В первую очередь CRM, CMS, виджеты на сайтах, телефонии, конструкторы сайтов.

С точки зрения аналитики, выбирайте те, которые поддерживаются сервисами сквозной аналитики. Иначе копеечная экономия выльется в весьма серьезные траты на персональной разработке или отсутствии возможности оптимизировать рекламные расходы.

0
13 комментариев
Написать комментарий...
Дмитрий Воронин

Статья не имеет какого-то обоснованного смысла. 
И сейчас объясню почему. 

 Вы пишете: Для 100%-й сквозной аналитики нужны 100% размеченные данные в строго определенном формате. 

1. Какая взаимосвязь между размеченными данными, которые находятся внутри рекламных кабинетов, и Power BI ?
Если данные не размечены, то никакой сервис не сведет это все в точную статистику. Причем здесь Power BI и Google Data Studio ?
Также еще есть нюанс, что у крупных компании реклама вообще может быть разбросана по разным агентствам со своими стандартами utm меток и своей политикой безопасности, поэтому они даже пароль с логином не всегда высылают, а передают через свой API. 

Вы пишете: Google Data Studio и Power BI это инструменты визуализации, а не сбора данных и они не могут обеспечить качественный сбор данных, на основании которых можно принимать какие-то решения. Все красиво, но если исходные данные с пробелами - бесполезно.
2. Power BI отлично подходит как и для визуализации, так и для загрузки и обработки большинства источников данных.
Откуда у вас информация что он не может обеспечить качественный сбор данных?
Данные в 100% точности передаются такими, какие они есть в источнике, не больше не меньше.
Проверено многолетним опытом работы с этими инструментами.
А также вы можете собирать данные и на Python, и на R, и визуализировать все это в Power BI, если вам удобнее работать в этих средах разработки.

Далее вы пишете пять пунктов про работу маркетолога.
3. Возникает снова вопрос, при чем тут Power BI как инструмент? Где связь?
Если любой сервис аналитики настраивать криво, непрофессионально и некомпетентными людьми, то вероятность, что данные будут некорректные, очень большая.

Затем вы пишете про идеальный датасет.
4. Не бывает 100% точности. В Аналитиксе, Метрике, системах коллтрекинга вы встретите часть неопределившихся utm до уровня ключа или кампании {keyword} и тд.
Например звонки с визиток уже смогут передать на уровне источника звонок, не больше.
А также client_id не определяется со стопроцентной точностью.
Поэтому и здесь никакой взаимосвязи между Power BI и точностью данных нет.
Power BI и Google Data Studio визуализируют только то, что выгружают сами системы, а это уже вопрос к ним.

Потом вы пишете что ваш сервис имеет возможность проверять разметку и все прочее.
5. Так Power BI тоже может выгрузить все объявления и проверить разметку, бытрые ссылки, количество символов в объявлении и тд.
Причем можно настроить все очень гибко.

В итоге:
Для сквозной аналитики в первую очередь нужна подготовленная инфраструктура на стороне инструментов рекламы, аналитики и CRM, а затем уже поверх всего этого можно построить что-то качественное с наименьшей погрешностью. Поэтому инструменты визуализации качественно и без ошибок выполняют свою работу, отображают те данные, которые есть в системах.

Ответить
Развернуть ветку
Alexey Laptev
Автор

1. 

Power BI и Google Data Studio сдаются, UTMSTAT через робота сигнализирует о проблеме.

В итоге данные получаются размеченные, причем все. 

2.

Power BI визуализирует, собирает и готовит данные другой сервис - обычно это условная метрика/директ/crm.

Но проблема в том что метрика/директ/crm не контролируют качество собираемых данных и техническую возможность по ним потом что-то свести.

UTMSTAT контролирует.

А чтобы на Python / R свести что-то адекватное, это надо потратить много времени и быть крутым программистом, а это уже совсем другая история и деньги.

А мы тут про простоту и автоматизацию. 

3.

Речь не про сервис аналитики, а про подготовку данных для него. 

Почему это важно - читайте тут https://vc.ru/marketing/83142-gramotnye-utm-metki-dlya-skvoznoy-analitiki

UTMSTAT умеет контролировать некомпетентных людей и гарантировать что они выполнят план минимум. 

4. 
Речь про обычный контекст и таргет, где можно провалиться до уровня объявления/фразы. 

Разумеется есть не точности.

Но одно дело когда счетчик не сработал в 1 случае из 100 000. 

Другое дело когда горе-маркетолог не разметил данные и слил 1 000 000 руб без аналитики. Это можно контролировать. 

 5.

Он умеет контролировать каждый клик автоматически? А не только в объявлениях метки проверять? 

В итоге кажется UTMSTAT vs POWER BI получается 5:0. 

 Как и сказано в статье, POWER BI хороший визуализатор, но мало кто умеет готовить даныее для него.

А что туда попадает реально как раз и показано на скринах.

Быть хорошим визуализатором не достаточно для решения задач сквозной аналитики.

Нужен еще контроль за входными данными.

Ответить
Развернуть ветку
Дмитрий Воронин

1. 

Так Power BI тоже можно настроить автообновления и они могут быть настроены под мониторинг обновлений и передачу информации на почту о состоянии прометки.
Передавать сообщения через почту реализовано в Power BI, по желанию это можно прокинуть и в telegram например. Поэтому не нашел существенных отличий. 

2. 

То есть Директ, Метрика и CRM не контролируют качество передаваемых данных? То есть там данные неправильные, а UTMSTAT исправляет на свои данные?
Это как? А с каким эталоном тогда это качество сравнивать?
Внешние источники отдают по API информанию в полном объеме без искажений, если вы не превысили их лимиты.
Данные либо есть и они корректны, либо данных нет и они некорректны. Не считая окно у каждой системы, в течение которого они еще раз укомплектовываются. В Директе, например, это около месяца.
И контролировать в этом случае только прежде всего нужно сбор данных в ваше хранилище, так как я не встречал еще на своей практике у крупных игроков каких-то явных косяков с выгрузкой, Яндекс и Гугл в этом случает точно.
Вы никак не повлияете на эти данные, потому что они находятся на стороне сторонних систем и забираете вы их оттуда в свое хранилище.
Если в Директе кампания называется А, то и выгрузите вы кампанию A, но не кампанию Б.
Поэтом не совсем понял в чем тут контроль данных, по сути это априори для каждого сервиса делается, чтобы итоговые цифры сходились в обоих интерфейсах. 

3. 

Я думаю вы не бесплатно это делаете, ваш сервис тоже написан на каком-то языке программирования.
Скорее всего, это стек Python - PostgreSQL - и какого-нибудь шаблона фронта, взятого за основу, но это лишь предположение.
Мы предоставляем похожую услугу, но разными способами, и ,логично, что это стоит своих денег.
У нас тоже есть готовые решения и это является SaaS, поэтому здесь неправильно перекидывать Python на сторону пользователя.
Я привел пример с Python и R как с альтернативными способами сбора данных, если вы не доверяете внутренним инструментам Power BI. 

4. 

Опять повторюсь, Power BI это тоже умеет. Так как посыл в статье, что это непригодный для таких целей инструмент, но это не так.
Поэтому здесь никакого преимущества я не увидел. 

5. 

А что есть автоматически контролировать каждый клик? И нужно ли это?
Анализ данных проводится не на одном клике, а на большой выборке.
Не совсем понял для чего это. 

В итоге:
Не увидел какого-то явного преимущества, исходя из вышеперечисленного.
Комьюнити намного больше чем вы думаете, и оно развивается по всему миру. Благодяря Максу Уварову и другим ребятам, сквозняк становится доступен каждому.
Это только ваши скрины, поэтому это не может быть существенным доказательством чего-либо.
Power BI это только одна из технологий всей базы, которыми обладает специалист по данным.
Тот кто строит сквозную аналитику умеет и запускать рекламу и настраивать счетчики.
Причем здесь навыки как визуализатора и сквозняк?
Если специалист знает как построить нормальную сквозную аналитику, для него не будет существенным, какой стек технологий использовать. Он построит ее в любом случае.

Ответить
Развернуть ветку
Alexey Laptev
Автор

1.

Вы не совсем понимаете о чем.

Тут идет реалтайм контроль трафика с точностью до клика, что позволяет контролировать конечный результат, а не по косвенным признаками проблемы искать.

У Power BI даже доступа к этим данным нет, потому что никто эти данные не дает, клики UTMSTAT собирает самостоятельно.

2.

И тут вы не понимаете о чем речь.

Читайте статью в каком формате должны быть данные, там все объяснено в картинках.

https://vc.ru/marketing/83142-gramotnye-utm-metki-dlya-skvoznoy-analitiki

Метрика/директ/crm - не контролируют формат, им всеравно, тк перед ними не стоит задача сквозной аналитики. 

 3.

Разумеется не бесплатно, вопрос в итоговой цене.

Одно дело когда базовую аналитику делает робот за 5000 в месяц.

Другое дело когда рота маркетологов/аналитиков, которые еще в каменном веке со своим Excel и простите, Power BI :)

И все это стоит сильно дороже. Сколько?

 4.

Он точно умеет контролировать конечный результат - клики? Которые он не умеет собирать.

Контролировать косвенно - можно, но можно сильно лучше это делать. 

 5.

И тут вы не разделяете задачи сбора данных и аналитики.

Для качественного сбора данных идеально контролировать каждый клик и это делает UTMSTAT.

Контроль кликов позволяет быстро и автоматически находить ошибки маркетолога чтобы тот не слил трафик без аналитики - в этом смысл.

Для аналитики разумеется нужен объем и отдельные клики не имеют значения.

По поводу Макса Уварова, это коуч, а не практик и технарь.

 Его задача продать вам курсы.

 Поэтому я не бы ставил его в эксперты. 

 Диалог с вами демонстрирует что вы плаваете в том как должны собираться данные чтобы аналитика сходилась. 

 Плаваете вы - плавает Уваров? )

 ИТОГО 

 Тут нет попытки победить Power BI, разумеется он хорош. 

 Но все таки если глубже копнуть в то, как работает аналитика, то вам станут очевидны вещи написанные в этой статье. 

 Это исключительно технический вопрос о том как хранить данные, чтобы быстро и легко их маппить автоматически. 

 Из разряда добавь индексы и увеличить скорость работы в 100 раз. 

Ответить
Развернуть ветку
Дмитрий Воронин

1. 

Разработчик своей системы лучше всего знает принципы на которых он ее строил.
У нас они различаются)
Звучит неплохо, но насколько это дает профита? 

 2. 

 Я прочитал статью, и она просто про ценность грамотных utm меток.
Расширенный формат меток мы используем уже не первый год, примерно такой какой приведен в статье.
Смотреть до региона, устройства, позиции и тд. Ну да, все что есть собираем.
Но это не прямая заслуга UMTSTAT) Это используется повсеместно.
Чето не смог понять. 

 3.

 У вас же тоже процесс весь на рельсы поставлен и схема одна и та же плюс-минус.
Так и в power bi уже есть решения, где собрана отчетность со стандартными источниками.
Просто когда-нибудь эти шаблоны все будут в открытом доступе, и это вопрос времени.
Плюс это все бесплатно. Конечно, за полную бесплатность надо вручную настроить будет, если человек сам это делает.

A Power BI позволит удовлетворить еще и все хотелки крупного клиента.
Собрать отчетность в корпоративных цветах, со своим шрифтом.
Расположить элементы согласно тз заказчика.
Сделать расчет всех показателей исходя из поправок заказчика.
Сравнить что с чем угодно и в любых сегметах.
И внедрить быстро. 

 4.

 Насчет сбора кликов если вы у себя собираете, то это ваша технология, не в курсе про нее)
Интересно скок это весит все, если не секрет? 

 5.

 Про технологию контроля кликов я бы лучше статью почитал)
Интересно просто сколько маркетологов сливают в среднем бюджет без аналитики, серьезно.

Курсы Макаса не проходил, не знаю чему он обучает, но с него я познакомился с инструментом Power BI который закрывает чаcть моих задач.
Поэтому ошибочно считать что-то общее в наших навыках.

Думаю, что ваших слов недостаточно для оценки моей экспертизы)

Но также и встречный вопрос, что вы плаваете в инструментах Power BI и Google Data Studio ?) 

 ИТОГО

 Я думаю, что в UTMSTAT есть фишки, которые Power BI точно не может реализовать, возможно, вы хотели донести в своей статье, но как-то завуалированно.
У каждого аналитика свой счет как это все работает, концепции одного аналитики могут быть применимы в одних ситуациях, но и концепции другого могут быть лучше применимы в других случаях.
Про структуру организации согласен, это отдельная статья, здесь набор скилов играет ключевую роль.

Ответить
Развернуть ветку
Alexey Laptev
Автор

1.

Досточно зайти на отчет робота и там всегда актуальная информация сколько не размеченных кликов прилетело.

Тут уже не важно, настроили ли вы power bi, не забылил что там нажать, проверяется конечный результат.

В итоге получается простая метрика качественных данных: 0 замечаний от робота, она понятна всем.

То что принципы различаются - это плохо, у всех на вход подаются одни и те же данные и формулы условного ROI одинаковые.

Поэтому и на выходе должен быть одинаковый результат. 

 2.

Смысл статьи не про метки рассказать, а почему именно они должны быть такие - этого требует техническая релазация маппинга данных.

Соответстенно если в метках бардак - можно смело делать вывод что исполнитель в аналитике близок к нулю. 

 3.

Про кастом согласен, сервис на широкую ЦА заточен. 

 4.

Весит терпимо 

 5.

Не замеряли, но уровень рынка - это случайные метки.

В Power BI и Google Data Studio плаваем так ими не пользуемся тк они про ручной труд.

Ответить
Развернуть ветку
Вячеслав Смирнов

Да ладно вам, демогогия все ваши утверждения, bi системы служат для того, чтобы максимально вариативно и понятно визуализировать данные, а не следить за их точностью, и вот в плане вариативности и визуализации вы в вашем utmstat ограничены вашим вебинтерфейсом и скриптами решаемых задач. Вы проигрывает в этом параметре любой bi системе! Точка. 
То что касается данных, ну естественно должна быть грамотная база и правильные связи по клидам утм и все такое, тогда и bi системы все правильно показывают. Дорого ли все это? Безусловно! Для среднего и крупного бизнеса это копейки, а для малого очень дорого. И на мой взгляд, интеграторы сквозной аналитики будут работать на средний и крупный бизнес, далее рынок обрастет дешёвыми готовыми решениями для малого бизнеса и настанет хана веб интерфейсам сквозной аналитики, ибо проанализировать сквозной отчёт по финансам, выявить, что канал seo начал сливать, перейти в отчёт по seo, увидеть что идёт спад по позициям, перейти в отчёт технический, к примеру по скорости загрузки страниц и понять, что сайт стал долго отдаваться пользователям - это круто!!! Внедрить какую-нибудь маркетинговую матрицу выставить по ней kpi, а потом по сквозные отчётам сравнивать показатели этой матрицы с ростом чистой прибыли - это круто!!! И таких кастомных сценариев, которые нужны бизнесу и чего вы в утмстат не можете, я могу привести целую кучу!!! А знаете какие сервисы сквозной аналитики вымрут? Те, которые к bi системам враждебно и пренебрежительно относятся и видят типа конкурента. Это же возможности для вас!! Вы же уже выстроили правильные архитектуры данных, осталось только придумать, как их подружить с bi системами))) не закрывайте свои сервисы, они пользу приносят, но и в будущее тоже можно посмотреть. Вы же 100% видите, что они популярность набирают. 

Ответить
Развернуть ветку
Alexey Laptev
Автор

Так никто не конкурирует, я просто немного снял лапши с ушей и объяснил некоторые тонкости.

Подружить bi и данные utmstat в планах. 

Все что вы описали круто, но по факту мало кому нужно, так как нет бюджетов и квалификации.

Ответить
Развернуть ветку
Вячеслав Смирнов

И Макса Уварова не трогайте)))) Он коуч конечно, и любой здравомыслящий технарь, попробовавший ради баловства его прямой коннектор с метрикой понимает, что это все детский сад. НО!!! Он многих познакомил с power bi, как с альтернативным инструментом для анализа данных, и вообще он добродушный чел))) 

Ответить
Развернуть ветку
Виктор Карпов

Иногда, в общении с коллегами, я сам называю себя "противником" сквозной аналитики, хотя мы в компании собирали систему "по себя". Вы очень верно упомянули "на рынке плохо с квалификацией", именно вот в этом я и противник, сама система очень крутая у вас по всей видимости, но сотрудники смотрят в эти дашборды и не видят за цифрами других людей, слова в креативах, покупателей - ведомых решением каких то своих бытовых проблем, настроения и тренды на рыках в целом итд. 

Хочу, чтобы это всё были решения для профи, добавьте еще горсть нулей к вашему ценнику, спасите микробизнесы от "иллюзии понимания". Девочки СММщицы с минимальным стажем видят все это и начинают пытаться "влиять" на цифры, а не "общаться" с другими человеческими существами. Беда. 

Ответить
Развернуть ветку
Alexey Laptev
Автор

Поэтому у нас есть робот - https://hello.utmstat.com/alice и готовые инструкции.

Цель сервиса - еще и защитить бизнес от сммщиц и прочих датасаинтистов, которые не понимают что делают, но продают услуги, а встроенный робот понимает и указывает на ошибки.

Поэтому за небольшой чек можно получить прогнозируемый грамотный результат.

Ответить
Развернуть ветку
Антон Фомин

Автор, в табличную часть можно организовать все поведение клиента и образовать замечательную систему для визуализации в Power BI и GDS, и других.

Почему современные маркетологи думают, что "сквозная аналитика" - Это информация Фронтовой части+Продажи, без внутренний системы учета.

В любой уважающий себя BI системы, есть ВЕСЬ функционал для организации настоящей сквозной аналитики.

Сама статья написана хорошо. Автор, Вы правы на счет - "Как нужно делать Маркетологам, что бы не обосраться перед Аналитиками". И полностью соглашусь, что современные маркетологи часто не ставят "Маркеры" для валидации действия. Всегда хочется отругать маркетологов при работе с заказчиком.

Работая с Заказчиками, я сам часто сталкиваюсь, что действия многих отделов не фиксируются и это затрудняет процесс  оптимизации бизнеса.

Ответить
Развернуть ветку
Alexey Laptev
Автор

Тут речь о том, что данные собранные на глаз для Power BI и GDS весьма дырявые и это прекрасно видно если иметь прямой доступ к ним.

Нет никакой гарантии что новоиспеченный датасаинтист правильно настроить костыли по передачи данных по тому же measurement protocol.

Чтобы отчетам  в Power BI и GDS можно было верить, нужен серьезный контроль за сбором данных для них.

Ответить
Развернуть ветку
10 комментариев
Раскрывать всегда