{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Скачайте этот Excel-файл и проверяйте семантику на полноту математически

Поделились внутренним инструментом, который анализирует собранные фразы и показывает, где и что еще можно добрать.

В маркетинге мы предпочитаем опираться на математику, а не на интуицию. Если есть задача проверить семантику на полноту — значит, должен быть инструмент, который перетрясет собранные фразы и покажет, где и что еще можно добрать. Сервисов аналогичных нет, поэтому мы нашу внутреннюю модель вынесли в Excel-файл — скачивайте и пользуйтесь.

Вам понадобятся: фразы и их частоты — общие и точные.

Принцип такой: вносим в Excel-файл фразы и частоты, жмем на кнопку и через несколько секунд, когда сформируются связи «фраза-хвост» и отсекутся доли нерелевантного объема, по маркерам определяем — где мы не доработали.

А теперь подробнее.

Идеально отработанная семантика

Если семантика отработана идеально, Excel-файл выглядит так:

  • значения в столбце H (расчетная частота) близки к значениям в столбце D (точная частота) у всех фраз, кроме низкочастотных и тех, в которых больше всего значимых слов.
  • столбец J (коэффициент отработки) зеленого цвета.
  • столбец K (коэффициент неотработки) зеленого цвета
Такой результат достигается через 1-2 итерации​

Неполная семантика: что упустили и как доработать

По маркерам файла мы можем понять 3 момента.

  1. Мы не добрали хвосты.
  2. Не досчитали трафика.
  3. Собрали некачественные хвосты.

Не добрали хвосты

Если для какой-то фразы (скажем, «Защитная каска») мы упустили хвост со средней или высокой частотой («Защитная каска с наушниками»), мы увидим это по маркерам в файле.

Хвост — дочерняя фраза («Защитная каска с наушниками»), которая состоит из материнской фразы («Защитная каска») и хотя бы одного дополнительного слова («наушник»)

Маркеры:

В столбце J (Коэффициент неотработки) и/ или в столбце K (Коэффициент отработки) ячейки не зеленого цвета, а желтого, оранжевого или красного (чем больше упустили хвостов, тем краснее цвет).

Что делать:

Идем в вордстат — вбиваем каждую такую фразу с минус-словами, находим для нее не включенные релевантные частотные хвосты и добавляем их в семантику.

Если таких хвостов нет, значит, дело не в том, что мы чего-то недобрали, а в том, что мы неправильно определили, какой релевантный объем трафика принесет фраза. Мы включили в него и мусорный объем. Для точного прогноза мусорный объем нужно отсечь — уменьшить коэффициент чистоты в столбце С.

Собрали некачественные хвосты

Если мы включили в семантику хвост с низкой точной частотой, файл нам это тоже покажет.

Маркер:

Значение в столбце J (Коэффициент неотработки) меньше, чем значение в столбце K (Коэффициент отработки).

Что делать:

В столбце P ставим значение 0 — тогда эта фраза не будет учитываться и мы не возьмем ее в продвижение. Так мы сэкономим деньги, потому что у нее была бы высокая цена за пользователя.

Не досчитали трафика

Иногда мы можем для какого-то запроса не точно спрогнозировать трафик — посчитать, что фраза приведет 15 человек, а, на самом деле, она может привести 20. Такие случаи файл нам тоже показывает, чтобы мы не удалили фразу, которую по ошибке посчитали бы мало полезной.

Маркеры:

Текст в столбце F красного цвета.

Что делать:

Увеличиваем коэффициент чистоты в столбце С.

Подготовка файла к работе

Скачайте шаблон и выполните следующие подготовительные шаги.

1. Внесите фразы

Откройте лист sem. Внесите в столбец А собранные фразы, в столбец B — их общие частоты, а в столбец С — точные частоты. Скопируйте эти же фразы (или сформируйте из них любую другую выборку) в столбец F листа work.

2. Задайте правила для создания униформ

Перейдите на лист «Морфо». Здесь собраны предлоги и окончания, которые будут игнорироваться, потому что они не считываются поисковиками как смысловые. Вы можете задавать на этом листе свои правила и исключения.

После того, как на четвертом шаге вы нажмете на кнопку «Расчет частот и отработки», по этим правилам для каждой фразы в столбце B сгенерируются униформы, которые однозначно характеризуют фразы.

3. Установите коэффициент чистоты

Мы делаем это для того, чтобы учитывать только релевантные запросы по каждой фразе. Например, фразу «Средства индивидуальной защиты» могут вбивать в поисковиках 20000 раз за месяц. Но 30% из этих запросов — информационка. И нам нужно это учитывать, чтобы мы не считали, что у нас трафика с этой фразы будет больше.

Перейдите на лист «Properties».

Опираясь на свой опыт, знание проекта и отрасли, задайте базовый коэффициент чистоты.

Например, если вы считаете, что фразы из одного слова («Каски», «Спецодежда») содержат, в среднем, 45% мусора, поставьте в столбце D коэффициент чистоты — 0,55.

Ниже идут уровни вложенности: +1 слово (фразы из двух слов), + 2 слова (фразы из трех слов), + 3 слова (фразы из четырех слов). Для них также проставьте коэффициенты чистоты в столбце D. На скрине это: 0,65, 0,85 и 0,95. Обычно, чем длиннее фраза, тем меньше она замусорена.

Потом для отдельных фраз можно будет увеличить или уменьшить коэффициент чистоты. Это вы увидите по маркерам (мы их описали выше). Коэффициент чистоты для отдельной фразы можно поменять на листе «Work», в столбце С.

4. Нажмите на кнопку «Расчет частот и отработки»

Через несколько секунд уже можно анализировать маркеры и дорабатывать семантику.

Экономия

Кажется, сложно, но на деле это займет 10-20 минут. Проделанная работа позволит корректно сформировать кластеры, привести максимальный трафик и не переплачивать за пользователей.

Так что скачивайте файл, разбирайтесь, пользуйтесь или обращайтесь за продвижением к нам.

0
9 комментариев
Написать комментарий...
Irvin Goodspeed

При получении файла из письма, появляется ошибка. Проверьте.

Ответить
Развернуть ветку
Артем Первухин
Автор

Теперь не появляется, спасибо! 

Ответить
Развернуть ветку
Irvin Goodspeed

Ссылка из письма не работает
https://blog.kinetica.su/api/download/?file=&i=22

Ответить
Развернуть ветку
Артем Первухин
Автор

Irvin Goodspeed, обновите запрос — должно работать.

Ответить
Развернуть ветку
Irvin Goodspeed

Какой запрос, я и так подписался на вашу рассылку, и хотел получить обещанный файл, а вы повторно меня меня квесты ваши проходить заставляете.

Ответить
Развернуть ветку
Артем Первухин
Автор

Irvin Goodspeed, мы не заставляем — мы делимся нашей внутренней разработкой, которую ценим и считаем достойной наградой за любой квест. Да, если вы хотите получить шаблон, вам нужно повторно ввести электронную почту — это не было задумано, но не все завелось с первого раза. Надеемся, та работа, которую мы проделали, и те возможности, которые она вам дает, окупят ваш гнев. 

Ответить
Развернуть ветку
Максим Пряник

Кластеризации делается на основе выдаче. У вас какой странный подход. В одном кластере два совершенно разных интента.

Ответить
Развернуть ветку
Артем Первухин
Автор

Максим, кластеризацию на основе выдачи используем на стадии формирования сегмента. Ссылка есть в статье. Здесь задача — проверить семантику на полноту, поэтому в столбце grp3 указываем один кластер на все запросы. Если не проверим семантику сразу и упустим что-то важное, а потом обнаружим это на стадии формирования сегмента, то придется пересобирать и переделывать кластеры, что займет в разы больше времени. Семантический кластер — это «материнская» фраза со всеми ее хвостами в рамках выборки. Функционал сделан для наглядности и проверки.

Ответить
Развернуть ветку
Максим Пряник

Усложняет, на мой взгляд.

Ответить
Развернуть ветку
6 комментариев
Раскрывать всегда