Нетипичные методы сквозной аналитики поискового трафика

Материал написан на основе выступления создателя SEMTools, директора по маркетингу GdeMaterial.ru Дмитрия Тумайкина на конференции «День сквозной аналитики».

​Дмитрий Тумайкин, создатель SEMTools
​Дмитрий Тумайкин, создатель SEMTools

21 ноября система сквозной аналитики Alytics провела в Москве третью ежегодную конференцию «День сквозной аналитики», посвященную методам и кейсам построения сквозной аналитики и способам оценки эффективности вложений в рекламу. Посмотреть видеозаписи выступлений спикеров можно на сайте конференции.

Сервис GdeMaterial.ru – это торговый агрегатор строительных материалов с товарной матрицей более 20 000 наименований. Огромное значение уделяется созданию грамотной и эффективной контекстной рекламы. Для этого создатели сервиса с самого старта внедрили систему сквозной аналитики. Об оценке качества сквозной аналитики, семантическом анализе и временной атрибуции пойдет речь в этом материале.

Почему так важно анализировать поисковые запросы?

Структура платного поискового трафика в представлении среднестатистического маркетолога, проект-менеджера, а иногда и руководителя выглядит так: аккаунтделится на рекламные кампании, те – на группы объявлений, группы – на ключевые слова и отдельные объявления, которые их триггерят.

Однако на самом деле все происходит намного сложнее. Ключевые слова и объявления – не самый нижний уровень структуры контекстной рекламы. У нее есть продолжение – поисковые запросы пользователей. Их очень много, они разнообразны, они пересекаются между собой – к одним и тем же словам могут быть разные поисковые запросы. И все это превращается в огромное синее море запросов, которые трудно анализировать.

Нетипичные методы сквозной аналитики поискового трафика

Что скрывать, многие специалисты не анализируют поисковые запросы, ограничиваясь нижним уровнем ключевых слов и объявлений. Однако качество сквозной аналитики при этом заметно снижается. Вспомним явление мультитриггеринга: когда один и тот же поисковый запрос может показаться пользователю по нескольким ключевым словам, а не по одному.

Вспомним также о конкуренции ключевых слов. Допустим, не всегда ключевое слово «плитка» триггерит запросы, связанные только с плиткой. По нему могут запросто показаться запросы «клей для плитки» и так далее. А это нерелевантно.

В то же время абсолютно все решения сквозной аналитики опираются на данные только до ключевого слова, потому что поисковые запросы не так-то просто передавать по API простым способом. И как быть?

Ответ есть – нужно сделать так, чтобы поисковый запрос пользователя и ключевое слово были максимально релевантны друг другу. Объявление с ключевым словом «клей для плитки» должно показываться только по запросу «клей для плитки», и только так. Соответственно, если есть другие поисковые запросы, нужно создавать ключевые слова специально под них.

Понятно, что создать ключевые слова под ВСЕ возможные запросы невозможно – их слишком много. Но можно максимизировать это совпадение – расскажем, как это сделать.

Релевантность ключевых слов и поисковых запросов

Поисковики не идеальны: при использовании широкого соответствия ключевых слов они подбирают не очень релевантные поисковые запросы. Вот некоторые механизмы:

1. Синонимия между разными частями речи. Например, «купить клей для плитки» и «плиточный клей».

2. Синонимия между ru-en - запрос, набранный по-русски, переводится в другую раскладку, и наоборот.

3. Несуществующие части речи: «Яндекс» не видит предлоги, союзы.

Однако не всегда эти алгоритмы работают как нужно. Синонимичность порой здорово портит картину, показывая рекламу по фразе, совершенно не соответствующей вашему бизнесу. При автоматическом переводе в другую раскладку ваш невинный запрос про компанию «ntn» может быть показан как «тет». Яндекс считает этот набор букв однокоренным со словом «тетя» и показывает этих самых теть в тематике 18+.

Пока эту вынужденную синонимичность отключить нельзя. Дмитрий Тумайкин разработал собственные алгоритмы, которые определяют и подсчитывают расстояние между словами. Исходя из этого расстояния вычисляется коэффициент соответствия поискового запроса ключевой фразе.

Коэффициент может быть от 0 до 1. Чем больше слова соответствуют друг другу, тем он выше. Обратите внимание, что порядок слов не учитывается: сочетания «клей для плитки», «клей плитка», «для плитки клей» будут для алгоритма одинаковыми.

Нетипичные методы сквозной аналитики поискового трафика

Если взять этот коэффициент и взвесить его через показы и клики, мы получим коэффициент на уровне всего аккаунта. Дмитрий Тумайкин назвал его КПСС – коэффициент проработки семантики средневзвешенный.

Нетипичные методы сквозной аналитики поискового трафика

Этот коэффициент при анализе качества проработки семантики помогает повышать соответствие поисковых запросов ключевым словам. К сожалению, на практике он чаще всего варьируется в значениях от 0,5 до 0,7. Это означает, что длина поискового запроса в 2 раза длиннее самого ключевого слова, которое показалось пользователю на запрос.

Например, ключевая фраза «айфон» показывается по запросу «айфон 5». Разница составляет всего одно слово, при этом айфон и айфон 5 – концептуально совершенно разные вещи. А если бы коэффициент был выше, сквозная аналитика работала бы намного точнее.

Аналитика трафика поисковых запросов

Итак, предположим, что нам удалось повысить коэффициент (лучше до 0,9 или 0, 95). Это значит, что ключевое слово максимально соответствует ключевому запросу. Теперь можно приступать к аналитике трафика: группировать сущности и смотреть, как они работают в своей совокупности – например, в конкретной рекламной кампании. Отметим, что этот этап невозможен без предыдущего. Если коэффициент небольшой, сначала надо повысить его, а потом уже продолжать. В противном случае сквозная аналитика становится менее валидной.

Из нетипичных методов сквозной аналитики хотелось бы выделить построение и проверку гипотез. Попробуйте построить на основе имеющейся статистики гипотезу о том, что определенные типы поисковых запросов конвертируются лучше. Выделите их в отдельную группу, повысьте на ней ставки и смотрите, сохранилась ли конверсия.

Вот несколько гипотез нетипичной сегментации: некоторые уже подтвердились, какие-то в процессе.

1. Калька с английского. В GdeMaterial.ru собрано много товарных позиций, названия которых люди набирают как по-русски, так и по-английски. Например, «наливной пол perfecta», «гипсокартон knauf»и так далее. Гипотеза заключается в том, что ЦА – прорабы, строители – в основном пишут эти запросы на русском языке: «наливной пол перфекто», «гипсокартон кнауф». А значит, сегмент тех, кто так спрашивает, конвертирует лучше. Осталось только сделать корректировки ставок и убедиться, что поисковые запросы не показывают синонимы в другой раскладке. Так и сделали, при этом гипотеза подтвердилась: CR (коэффициент конверсии) составил +25%.

2. N-gram-сегментация – это раскладка всех массивов фраз на отдельные слова и словосочетания и подсчет частоты их встречаемости. С ее помощью можно выявить популярные поисковые запросы, которые содержат определенную последовательность слов. Строим гипотезу: запросы, в которых встречается слово «в мешках» (шпатлевка, цемент и другие стройматериалы), конвертируются лучше. Проверяем: действительно, CR составляет +/- 100%.

3. Длина запроса в словах и токенах. Токены – это не синонимы обычных слов. Они могут состоять из нескольких слов (например, «леруа» и «леруа мерлен»). Один и тот же концепт может быть представлен токенами разной длины («цена за квадратный метр» и «цена за м2»). Одни и те же слова составляют разные токены («интернет-магазин» и «магазин»). И наконец, токены - это неделимый концепт в сознании пользователя («официальный сайт» и «сайт»). Гипотеза, которая пока проверяется, звучит так: чем длиннее запрос пользователя, тем он более специфичный и высококонверсионный. Поэтому считать длину запроса в токенах более обоснованно, чем в словах. Запросы «купить шпатлевку в леруа мерлен» и «купить шпатлевку в леруа» будут разными по длине фразы, но по сути – в токенах они одинаковые.

4. ВременнАя атрибуция с переопределением значимости источника. Выдвинута гипотеза: в выходные пользователи ищут информацию по non-brand, в понедельник делают лид с брендового запроса, во вторник уже отгружается заказ и компании приходят деньги. Трафик атрибутируется не к той сессии и не в тот день, когда произошел заказ, а к последнему значимому источнику сессии, который привел к заказу. При этом последним значимым источником не обязательно считать брендовый запрос, email, органику на главную. Любой трафик, пришедший на главную страницу – это тоже по сути брендовый трафик, причем прямой, лояльный. Поэтому может оказаться, что отключать рекламу на выходные не так уж правильно.

Такие действия нужно совершать постоянно: чем больше гипотез – тем больше инсайтов сквозной аналитики. И только после того как вы убедитесь в правильности своей гипотезы, сможете посмотреть конверсию в конкретный заказ в вашей СRМ.

1818
3 комментария

Каков итог статьи? Semtools позволяет анализировать такую глубину?
Пока что на рынке лучше ROI STAT лучше аналитики нет

Ответить

Итог статьи - какой бы ни была ваша сквозная аналитика, даже если у вас самый лучший, как вы говорите, ROI STAT, нужно понимать, что вы в отчетах видите на самом деле.
Если у вас эта "глубина" 0,5, можете считать, что на уровне платного поискового трафика (доля которого в рекламном бюджете стремится к 100%) толку у вас от вашей сквозной аналитики нет.

Ответить

Если эта "глубина" 0,5, прикладного значения во всем, что вы видите в вашей сквозной аналитике, нет. Действия, которые вы будете предпринимать после обращения к вашим "аналитическим" дашбордам, вне зависимости от лого в верхнем левом углу дашборда, не возымеют эффекта, т.к. это не вы управляте трафиком из поиска, а движки рекламы поисковых систем управляют, на какое ключевое слово отправить поисковый запрос и потратить больше вашего рекламного бюджета.

Ответить