Простой способ выявить проблемы с семантикой

Продвигаемая (целевая) страница не всегда совпадает со страницей, которую поисковая система считает релевантной запросу. Это может означать проблему дублирования, недостаточной оптимизации под запрос или наличие фильтра на целевой. Высоких позиций такая страница, вероятно, не получит. Рассмотрим простой способ диагностики этой проблемы. Текст для новичков, только осваивающих профессию.

Зачем это нужно

Для короткого аудита отдельных категорий коммерческого характера недостаточно оценить количество вхождений основных ключевых слов в сравнении с топом выдачи или любым другим способом. Поисковая система уже что-то знает о вашем сайте, а оценивает она не только посадочную страницу (документ), а весь сайт (коллекцию документов) и опирается на накопленные исторические данные. И вот тут бывают некоторые неприятные моменты.

  • Две и более страниц одинаково хорошо соответствуют какому-то запросу (или одинаково плохо, но альтернатив поисковая система не видит).
  • Какая-то условно релевантная страница уже получала трафик по этому кластеру запросов и успела набрать как запросный индекс, так и неплохие поведенческие сигналы. У вас, например, ещё не было целевой посадки или ваш маркетолог трафик из контекстной рекламы льёт не туда. И в результате у вас есть хорошая посадочная страница, но Яндекс её почему-то не признаёт и в поиске по запросу показывает другую.
  • Запрос слишком неопределенный, а у вас есть и коммерческая страничка, и статья, и ещё что-то хорошее, и поисковая система просто разрывается от желания показать людям всё – но топы не резиновые, и в выдачу попадает не то, что хотелось бы.

Простой пример: общий запрос типа «таможенное оформление». По нему конкурируют таможенные брокеры, юристы, логисты, продавцы конфиската, а ближе к весне студенты идут искать статьи на эту тему и на естественных ПФ всех вытесняют инфо-ресурсы.

В этом примере причины ротаций – внешние. На них нельзя повлиять, можно лишь попытаться охватить максимум интентов, чтобы тематическая авторитетность была на максимуме, и поисковой системе было выгодно вести трафик к вам - в любом случае. В повседневной же практике чаще приходится иметь дело с какими-то увечьями и родовыми травмами структуры, выявить которые бывает непросто. Тут разберем способ выявить эти проблемы.

Процедура

Инструментарий опишу свой, привычный, но в принципе можно использовать любой подходящий, аналогов много. Статистику по ключевым словам я снимаю с помощью KeyCollector. Там в данном случае интересна статистика по релевантным и ранжируемым страницам. Для съёма этих данных вам понадобится немножко xml-лимитов. Для кластеризации использую KeyAssort, тут тоже есть простор для выбора. Можете, собственно, воспользоваться кластеризатором того же KeyCollector, просто мне он не нравится.

Итак.

  • Собираем интересующие запросы и статистику по ним (если нужна). Чистим, сносим мусор.
  • Снимаем данные по интересующему домену: страницы, по которым сайт ранжируется по запросу, и релевантная страница с точки зрения Яндекс.
  • Загружаем данные в KeyAssort на кластеризацию.
  • Кластеризуем ключевые слова по выбранному алгоритму. Я, к примеру, коммерческие ключи всегда кластеризую в режиме «хард с порогом в 3». Для инфо-запросов и сложных ключевых слов есть другие варианты.

И вот в итоге мы получаем табличку, где все ключи поделены на кластеры, есть информация по странице в рейтинге и странице, которую Яндекс считает релевантной. По идее, разницы быть не должно никакой вовсе: по всем страницам кластера на сайте должна ранжироваться одна и та же страница, и она же должна быть релевантной с точки зрения Яндекса. Если это не так – вероятно, у нас проблемы.

Для удобства можно подкрасить несоответствия. Открываем табличку в «Экселе». Выделяем два столбца (ранжируемые страницы и релевантные). Нажимаем клавишу F5 и в появившемся окне «Переход» нажимаем на кнопку "Выделить...". В следующем окне выбираем "Отличия по строкам" и жмём "ОК".

«Эксель» выделяет все строчки, где видит несовпадения. Для удобства можно залить их цветом. В результате у нас получается достаточно информативная табличка, которую можно использовать для дальнейшей диагностики.

Наглядно: вот кластер, вот проблемы со структурой и распределением ключей по посадочным страницам.
Наглядно: вот кластер, вот проблемы со структурой и распределением ключей по посадочным страницам.

Процедуру можно ещё упростить и ускорить – за счёт точности и обобщенного подхода. Вам понадобится сервис наподобие arsenkin.ru. Для начала выясним, относятся ли запросы к одному кластеру. В данном случае это "профильные трубы", "купить профильные трубы" и "профильные трубы оптом".

Эти запросы явно относятся к одному кластеру и должны продвигаться по общей посадочной странице
Эти запросы явно относятся к одному кластеру и должны продвигаться по общей посадочной странице

Убедились, что да - следующая фаза. В инструменте «Переоптимизация» смотрим, что на заданном URL с этими запросами. Один определяется как зафильтрованный (по какой-то причине, не обязательно из-за текстовой релевантности), со вторым - порядок, а третий ранжируется по другой, лишней в структуре странице.

Как минимум, с двумя запросами здесь – потенциальные проблемы. Надо проводить более серьёзный анализ
Как минимум, с двумя запросами здесь – потенциальные проблемы. Надо проводить более серьёзный анализ

Само существование фильтра "Новый" (он же - "Переоптимизация") – старый повод устроить холивар. В данном случае совершенно неважно, есть такой фильтр или нет. Факт, что инструмент для его выявления в принципе хорошо вылавливает потенциальные проблемы со страницей.

Если уж совсем упрощать, данные по релевантности можно снять просто по выдаче по формуле "запрос site:вашсайт.ру". Яндекс в этом случае выдаст список наиболее подходящих страниц с сайта. По одному запросу из кластера вы многое не вытащите, это долго, годится только для очень выборочных оценок, и многое можно пропустить, поэтому всё же лучше снимать данные пачкой и через xml.

Ещё проще – если вы используете Topvisor. Там можно задать кластеру целевую страницу, и при несовпадении целевой и ранжируемой сервис вам просигнализирует – просто не поленитесь настроить проект.

Итоги

В идеальном случае правильно определенный кластер запросов у вас подклеен к целевой посадочной странице и нет других страниц, которые поисковая система оценивает как релевантные. А вот если они находятся, и хуже того, ранжируются по этим запросам – надо думать, что с этим делать. Если нецелевые страницы в топе – лучше, разумеется, ничего не трогать. Во всех других случаях надо определять алгоритм дальнейших действий.

  • Если по факту все ваши страницы практически одинаковые по словарному составу (такое бывает часто) – надо их уникализировать. Определять самые весомые ключи, вносить правки в структуру страниц, добавлять уникальный в рамках сайта контент.
  • Если причиной всему исторические данные – это задачка посложнее, и решается она комплексно: оптимизацией текстового контента, трафиком из поиска по заданным запросам, внешними и внутренними анкор-листами.
  • Простая «каннибализация», когда ретивые продвигаторы налепили кучу ненужных статей на одну и ту же тему решается хирургически. Качественный контент объединяем в одну страницу, мусорный – сносим, старые URL через 301 редирект перенаправляем на целевой.

И если с вашим контентом и коммерческим предложением – порядок, а проблемы упирались только в кривую структуру и недоработки семантики, можно ожидать хорошего скачка вверх на минимуме усилий с вашей стороны.

2020
реклама
разместить
10 комментариев

Нормас, мануал почти как в моих уроках, только я делаю немного проще, чтобы было понятно новичкам - выкачиваем h1 сайта и делаем кластеризацию, кто в одном кластере дополнительно проверяем и называется это - проверка на каннибализацию)

2

Перед этим проверку на дубли Н1 делаете?
А если Н1 нет?
А если заголовки расставлены бестолково и попадает левый?
При анализе заголовков исходят из того, что они расставлены по уму, а это не всегда так.

3

ААААХАХАХАХАХА

Статистику по ключевым словам я снимаю с помощью KeyCollector. Там в данном случае интересна статистика по релевантным и ранжируемым страницам. Для съёма этих данных вам понадобится немножко xml-лимитов. Для кластеризации использую KeyAssort, тут тоже есть простор для выбора. Можете, собственно, воспользоваться кластеризатором того же KeyCollector, просто мне он не нравится

А что именно "ахахаха"?

1

Интересно конечно работает) страница не целевая, но болеее релевантная с точки зрения поисковика и конечно же она не займет хорошие позиции, а вот целевая (сканибализированная) конечно же заняла бы высокие позиции, хотя она даже свой хреновый дубль не может обойти по релевантности

Пирамида метрик ранжирования - начиная от самых древних и тупых типа количества вхождений. "Морда" может перебить общую категорию, подкатегория оказаться лучше категории. А то и классика: пачка мега-меню, сквозные блоки, какие-нито "плитки тегов" и крохи основного контента.
Видел сайт, где изначально вообще все страницы на уровне tf-idf и bm25 были одинаково релевантны запросу "памятники из гранита на могилу". Вот вообще без разницы, какую брать - кроме "конфиденциальности".

Для новичков рекомендую пройти бесплатный курс: Основы поисковой оптимизации (SEO) по ссылке: https://intuit.ru/studies/courses/11198/1121/info

В курсе отлично рассказывают про релевантный запрос.