{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Шаг за шагом: как собрать семантику по нише?

Александр Александров, product manager SEOWORK, пошагово описал один из методов сбора семантического ядра на примере тематики «Натяжные потолки». За основу он взял инструменты, которые есть в SEOWORK, но вы можете всегда использовать аналогичные в других сервисах или сделать то же самое вручную. Не опубликовать эту статью мы просто не смогли, ведь предложенная механика подходит для любой другой тематики и так подробно описана, надеемся вам будет полезно!

Что будем делать?

1. Ищем сайт. Запрос «Натяжные потолки», регион Москва.

Подберем сайт по нужной нам тематике, на основании которого будем собирать семантику. Это должен быть проект в выбранном регионе, релевантный нашему запросу.

Вбиваем запрос и выбираем один из первых сайтов. Возьмём https://vipceiling.ru/

2. Ищем конкурентов

А именно, похожие сайты с хорошим ранжированием в данном регионе. Для этого используем инструмент «Конкуренты» из сервиса seowork на основе Keyso, вбиваем https://vipceiling.ru/ и уточняем регион — Москва.

После того как задание выполнится, скачиваем результат.

Далее фильтруем по столбцам «Похожесть” и “Тематичность». Мы поставим фильтр по этим столбцам > 5.

Похожесть. Процентное количество общих запросов в количестве запросов текущего сайта.

Тематичность. Процентное количество запросов анализируемого сайта в запросах текущего сайта (как много% запросов анализируемого сайта есть в ТОП50 у текущего сайта).

На выходе получаем 95 проектов, в порядке убывания количества ключевых слов в ТОП1 у каждого сайта.

3. Собираем семантику по списку доменов

Для этого воспользуемся инструментом “Подбор семантики” на базе keyso.

  • Выбираем тип задания по списку конкурентов,
  • Выбираем регион,
  • Добавляем список доменов из таблицы,
  • Больше можно ничего не трогать,
  • Запускаем задание!

Убеждаемся, что результат нас устраивает. Для этого в предварительном отчёте мы видим выборку из 10 строк отчёта и суммарное количество найденных ключевых слов.

Запускаем задание дальше и получаем семантику.

В результате у нас есть 36 000 запросов.

4. Чистка семантики

Метрика «Количество сайтов в ТОП 50» = Вес запроса

1) Если полученная семантика кажется грязной, например много лишних запросов (см картинку ниже), то нет смысла их вычищать руками. Удобнее поиграться со столбцом «Количество сайтов-конкурентов в ТОП50».

В данном случае видим что вес = 2, даёт нам довольно грязные результаты (цемент, краска), так как есть не тематические запросы

Важно. Можно сразу закладывать это значение в интерфейсе при создании задания, чтобы потом не фильтровать по этой метрике.

Убираем все запросы «Количество сайтов-конкурентов в ТОП50», у которых меньше 10, например. И сужаем выборку запросов из 36000+ до 9000.

Таким образом мы фокусируемся только на тематических запросах конкретно для этой ниши, практически без мусора, но и с хорошей полнотой.

Метрика «Пустышки». Удаляем пустые запросы

2) Удалим пустышки. Запросы которые имеют низкий показатель отношения точной частотности к общей. То есть введем новую метрику, которую рассчитаем как

(! Очень! точная! частотность] / Базовая частотность) * 100

Давайте посмотрим, что это даёт:

Как видим, при фильтрации с показателем 0%, выборка запросов состоит из однословных запросов, которые слишком общие, либо из запросов, у которых есть более корректная = частотная форма написания. В общем и целом работать с такими запросами я не вижу смысла, поэтому смело убираем все запросы которые <= 1%

Итак, убрали пустышки и получили выборку в 6000+ запросов из 9000 полученных на предыдущем этапе.

Неявные дубли

Оставим только наиболее частотные запросы из похожих.

Например, в данной группе мы уберём все запросы кроме «натяжные потолки москва».

Можно сделать это через Key Collector. Для этого импортируем наш файлик, чтобы не собирать данные с соответствием столбцов (в кейколлектор есть возможность кастомных столбцов).

Затем через опцию «Анализ неявных дублей», находим все запросы.

Далее с помощью умной отметки убираем все лишние запросы в 1 клик.

Важно, чтобы за основную метрику, по которой работала "умная отметка", был выставлен параметр в виде “очень точной частотности".

Итак, сделав эту чистку, мы получили 5000 запросов из 6000 или из 36000 начальных.

Пример полноты семантики на основании запросов из 2 слов. Как видим, встречаются интересные варианты запросов, до которых не всегда додумаешься даже если глубоко разбираться в теме.

5. Кластеризация

Импортируем все полученные запросы. И загрузим их в кластеризатор, например keyassort. Загрузим со всеми полученными метриками.

Соберем данные по выдаче.

Параметры:

и

Кластеризуем и получаем:

472 разобранные группы = страницы.

И 1 не разобранная, которую можно разобрать руками в дальнейшем, либо проигнорировать.

Если просуммировать частотность всех запросов в кластере и расположить кластеры в порядке убывания частотности, то мы получим приоритезированный список, по которому можно будет выстраивать процесс по созданию контента.

Пример кластера:

Примерный ассортимент конкурентов можно прикинуть из выгрузки по конкурентам. Можем рассчитать медиану по количеству страниц в выдаче и понять примерный ориентир, сколько страниц нам понадобится, чтобы охватить семантику.

И здесь мы получили ориентир, примерно, в 300 страниц. Кластеров же мы получили 443.

Но мы также наблюдаем низкочастотные кластеры, можно их охватить дешёвым генерированным (шаблонизированным) контентом.

Исходя из полученного можно прикинуть начальную структуру семантики и получится что-то типа этого:

Бренды конкурентов, пригодятся для анализа спроса на эти бренды в динамике, чтобы понимать, кто из компаний занимается развитием бренда.

В итоге

У нас есть довольно хорошее по своей полноте семантическое ядро и четкое понимание по количеству и типам страниц. Такое ядро рекомендую пересматривать максимум раз в год, а лучше раз в полгода. Так как периодически меняется интент некоторых запросов и появляются новые бренды.

0
8 комментариев
Написать комментарий...
Георгий Шилов

Саша, лайк ) 

Ответить
Развернуть ветку
George Karakeyan

Это очень сложно, а можно просто кнопку нажать и все?

Ответить
Развернуть ветку
Александр Александров

Работать - сложно!)
Ну а если серьёзно, работа с подобным ядром занимает около 2 часов. В сравнении с классическими подходами к сбору семантики, данный подход можно считать такой кнопкой.

Ответить
Развернуть ветку
George Karakeyan

я просто не особо сеошник, так-то я тебе верю)

Ответить
Развернуть ветку
Вадим Осадчий

ЖЕСТОКА :С Уже было хотел залетать в топы serp'ов, а тут такое...
"Cпасибо
Ваша заявка отправлена. Осталось совсем немного!

Мы проводим ручную модерацию, в ближайшее время
вы получите письмо с информацией на ваш email и наш
менеджер свяжется с вами для подключения к сервису."

Ответить
Развернуть ветку
SEOWORK
Автор

Да, регистрация в сервисе происходит через менеджеров, которые помогут также интегрировать ваш проект на платформу. 

Ответить
Развернуть ветку
Вадим Осадчий

А как быть фрилансерам, если проект не постоянный?

Ответить
Развернуть ветку
SEOWORK
Автор

они могут работать через наших партнеров - экспертов или агентств

Ответить
Развернуть ветку
5 комментариев
Раскрывать всегда