{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

Как быстро собрать семантическое ядро для крупного E-Com

Содержание:

Автор статьи:

Александр Юшин
SEO-специалист в Profitator

1. Что такое семантическое ядро

Семантическое ядро сайта — это определенный список ключевых слов и фраз, по которым ваш сайт можно найти в различных онлайн-сервисах, например в поисковых системах.

Это довольно простое определение, которое не учитывает большого числа тонкостей. Например, фактическое семантическое ядро может охватывать значительно больше ниш, чем те, на которые рассчитана текущая структура сайта, контент или даже цели, поставленные перед ним.

Поэтому, чтобы ответить на вопрос, что же такое семантическое ядро, важно решить, как мы хотим использовать этот инструмент и чем он для нас является. К семантическому ядру можно относиться как к чисто SEO-инструменту или воспринимать его как вектор для развития бизнеса. Это важный момент, поскольку он подводит к следующему вопросу: а зачем оно вообще нужно?

2. Зачем нужно семантическое ядро

Если вопрос ставить с точки зрения SEO-специалиста в его сравнительно узком направлении, то здесь важно отметить, что постепенно SEO перестает быть отдельно живущим «органом» на сайте и в маркетинговой стратегии всего бизнеса.

С точки зрения SEO, назначение семантического ядра — это помощь:

  • в проектировании структуры сайта;
  • в отслеживании видимости позиций;
  • в понимании емкости рынка и его сезонных колебаний;
  • для проверки различных гипотез влияющие на ранжирование сайта и увеличения ряда параметров, таких как CTR и т. д. , и других задач.

Однако, если взять более широкий вектор взгляда на семантическое ядро, выходящий за рамки SEO, это еще и:

  • оптимизация работы специалистов в смежных направлениях: PPC, Brandformance и других;
  • работа по увеличению конверсий, среднего чека и других важных коммерческих показателей
  • развитие бренда, его узнаваемости и оценка, как это может повлиять на факторы, указанные выше;
  • выявление новых потребностей клиентов;
  • поиск новых направлений развития в онлайне.

Иными словами, в зависимости от вашего подхода, целей и прочих задач значение семантического ядра может сильно меняться. И здесь мы подходим к еще одному вопросу.

Нам нужно одно семантическое ядро? Может, два? Или все-таки одно — такое большое, в котором будет все, что нам нужно, и откуда мы будем получать все, что нам надо, внедрим кластеризацию, тегирование, сегментирование по типу страниц и будем работать?

3. Определяемся с объемом семантического ядра

Правильно собранное ядро — это мощный инструмент. А вот плохо составленное ядро, без полного понимания, к чему в нем все эти запросы, может мешать и даже вредить работе, поскольку будет искажать получаемые результаты и, делая выводы на них, планируя дальнейший план работ, можно совершать грубые ошибки.

Семантическое ядро — это не стабильное целое, которое собрал один раз, и этого достаточно. Работа с семантическим ядром должна вестись регулярно — что-то удаляться, если для сайта и бизнеса это больше не актуально, что-то включаться.

Многие специалисты зачастую ограничиваются одним ядром, которое холят и лелеют, и постоянно его растят, добавляя туда больше и больше новых запросов, а между тем рынок меняется.

Ведь бизнес уже не выделяет SEO в самостоятельную структуру, как ранее. Для бизнеса SEO сегодня — это один из каналов интернет-маркетинга, включенных в общую схему работы. Сегодня для SEO действуют те же правила ведения бизнеса в интернете, что и для других направлений.

Например, заказывая статьи, SEO-специалист не может проигнорировать таких правил, как корректное написание названия компании. Возможны даже правила, строго определяющие, на каких площадках могут распространяться пресс-релизы о компании со ссылками на нее. Не забываем про новый закон о маркировке рекламы, который еще сильнее показал необходимость исключения SEO как самостоятельного канала.

Часто для составления промоакций и других мероприятий очень важно тесное сотрудничество SEO с другими отделами компании.

SEO-специалисту нужно подготовить семантику, техническое задание на тексты, страницы и т. д. , но не будете вы же включать эту семантику в основное ядро? Эти данные важны для бизнеса, но насколько стоит их включать рабочую семантику?

Другой пример.

Есть крупный e-com-проект, у которого, скажем, в сумме 50 000+ страниц категорий и карточек товаров. Не берем в расчет такие истории, как отдельные страницы под отзывы, характеристики, а также статьи и прочее.

Есть такая практика, что для отслеживания одной коммерческой страницы специалисту нужно от 3 до 10 (и даже больше) запросов. В результате мы получаем громоздкое ядро объемом от 200 000 запросов, с которым нужно работать.

Кто-то скажет за очень много данных, мол, ничего не упустим! Ну да, конечно, только вот проблема в том, что чем больше стог сена, тем сложней в нем найти иголку — в смысле, понять, а за счет чего и почему мы видим ту или иную динамику?

Наш опыт работы подсказывает, что гораздо практичней разделить это огромное семантическое ядро на кластеры:

Например, на типы страниц:

  • PDP
  • PLP
  • и т.д.

Более того, эти ядра тоже можно дробить, выделяя в них сезонные категории, наиболее маржинальные группы категорий и товаров, а также другие дополнительные принципы.

Кроме того, не забываем про семантику, которая нам добавляется от бизнеса — она важна, но лучше всего ее мониторить отдельно. А есть ведь еще невероятно большой потенциал информационных запросов.

Можно возразить, что можно же использовать сегментацию и сильно упростит работу. Да, но нет.

4. Оптимизация работы с семантическим ядром

Мы остановились на том, что можно продумать сегментацию ядра и вроде как даже и не нужно ядро дробить на небольшие группы ядер. Здесь есть несколько сильных но.

И первое но — финансовый вопрос.

Вы готовы платить за раздутое семантическое ядро и регулярный сбор данных, значительная часть которых, может быть, вообще вам не нужна?

Одним из популярных решений раздутого ядра является снижение частоты сбора. И это как стрелять себе в ногу. Сбор данных о вас и ваших конкурентов позволяет вам в динамике контролировать ситуацию и понимать, когда произошло то или иное событие. Без этого вы как корабль в океане, у которого вышла из строя навигационная система: куда плыть?

Раздутое ядро, как и раздутый robots. txt, в котором куча устаревших и ненужных правил, приведет к росту ошибок, а удаление из семантики нужных для вас сегментов будет приводить к искажению цифр с общей динамикой по сайту. В итоге вы будете тратить больше времени на пустой анализ результатов.

Вы можете ответить, что вы спец и в курсе, что и как, и нет нужды по 10 раз что-то проверять. На это можно возразить, что специалист держит инструменты в порядке и чистоте, но не в этом даже дело. А если на цифры захочет взглянуть руководитель интернет-маркетинга, особенно новый? Кроме того, через год, даже при наличии данных о событиях, установить взаимосвязи в динамике станет очень сложно.

Наш опыт говорит, что использование нескольких семантических ядер с независимой друг от друга сегментацией, порядком и определенной частотой сбора данных влияет как на финансовую отчетность, так и на улучшение понимания, что все-таки происходит с сайтом, без пафоса «я в курсе».

Как показали наши эксперименты, разделение даже коммерческих запросов, ВЧ и прочих в отдельные ядра позволяли лучше понимать динамику, ее причины и принимать более прагматичные и эффективные решения.

Мы определились для себя с тем, для чего нам нужна семантика и в каком объеме. Так как же все-таки ее получить быстро?

5. Методы сбора семантического ядра

Вот мы и подошли к самому главному: как быстро собрать семантическое ядро?

  • Традиционно ручной метод — Excel.
  • Программы и сервисы, которые позволяют значительно автоматизировать вашу задачу.
  • GPT.

1) Excel

Казалось бы, это самый непродуктивный способ сбора семантического ядра в наше время, когда работает куча ИИ, программ и т. д.

Но на самом деле нет. Все зависит от того, а для чего, собственно, вам нужно это самое ядро? Если надо быстро, не тратя много времени, собрать релевантное ядро буквально за пару часов и при этом оно должно охватить все нужные нам коммерческие страницы на сайте (информационный контент сейчас в расчет не берем) , ручной способ — действительно оптимальный вариант.

С помощью генерации запросов в Excel можно за пару часов создать достаточно большое ядро, с которым уже сразу можно начать работать.

Шаг 1. Парсинг (любым инструментом) .

Для этого нам достаточно спарсить сайт, можно сразу же по маскам отобрать интересующие нас типы документов и отбросить все лишнее.

Шаг 2. Получаем маски.

На следующем этапе желательно также по маскам разделить на листинги, карточки товаров или другие типы страниц. Причем можно использовать маски не только по URL, но и по другим элементам, шаблонам оптимизации, наличию на страницах у сайта определенных элементов кода, которые можно задать в парсинге. Это нужно, например, если на сайте есть несколько типов карточек товаров или листингов, но у них имеются принципиальные отличия, которые важно учесть, а по маске в URL этого нельзя сделать. Здесь в качестве маркировки можно найти уникальный элемент на сайте и при парсинге в программе указать его, тогда мы с самого начала разметим все нужные нам страницы.

Дальше главное — не спутать данные при формировании пула запросов.

Шаг 3. Подбираем ключи для скрещивания.

Получив h1, title или другие маркеры со страниц, можно взять их за основу и подготовить свой список уточняющих запросов. Можно подобрать разное число этих хвостов, смотря для чего вы будете использовать итоговое ядро и, конечно, учитывая специфику ниши.

Обычно на один URL достаточно в среднем 3–5 запросов, чтобы точно понимать, как документ ранжируется, поэтому обычно в качестве запросов используются следующие фразы и слова:

  • Купить.
  • Топоним (название региона, города и проч.).
  • Цена и т. д.

Далее получаем конечный, нужный нам результат: парсим частоту, позиции и т. д.

Используя различные плагины для Excel и онлайн-сервисы, можно дополнительно просклонять и изменить число маркеров, например, обогреватель и обогреватели. Это поможет расширить охват семантики. Но делать это вручную не рекомендуем, оно того просто не стоит.

Собирая далее частоту полученных фраз, совсем необязательно удалять все запросы с 0 частотой — при условии, что нам важно оценить видимость сайта, и при условии, что на URL не получилось избытка запросов. Отчасти именно поэтому 3–5 запросов зачастую достаточно на каком-то этапе.

Да, это ядро будет иметь определенные минусы, но оно позволит вам за очень короткое время собрать необходимый минимум семантики, а затем, не откладывая, собрать данные по видимости и определиться с дальнейшими направлениями вашей работы.

Здесь главное — не допустить типичных ошибок, когда путем генерации мы пытаемся на основе каждого h1 получить от 6 и более фраз. Руководствуйтесь принципами:

  • Быстро собрать достаточное ядро для предварительной условно объективной (субъективной) оценки видимости сайта.
  • Затратить минимум времени.
  • За счет привязки URL можно легко сделать тегирование, которое облегчит сегментирование и в результате даст куда более четкую картину по семантике.

Попытка сбора синонимов. Вы потратите уйму времени на поиск и подстановку синонимов, и все ради того, чтобы почти все, что вы сделаете, дало вам запросы с 0 частотой.

Забываем о привязке URL к фразам и маркерам, получаемым на основе пересечений. В итоге получаем семантику без привязки к документам и типам страниц. Но зачем дополнительно тратить на это время?

В современных реалиях не всегда есть возможность спарсить сайт, если он закрыт от ботов. Но эта проблема не самая сложная, на самом деле достаточно договориться с разработчиками о том, чтобы вы могли попасть в белый список по IP или, например, токену, который будет передаваться во время парсинга.

2) Использование сервисов для подбора семантики

Если совсем не хочется ручного процесса и вы фанат автоматизации, считающий, что в современном SEO ручной труд — от лукавого, то различные бесплатные и платные сервисы всегда открыты для вас.

Автоматизация процессов, в том числе такого, как сбор семантического ядра, может значительно упростить для вас задачи, но при этом важно понимать, как именно работает тот или иной сервис и на основании чего он дает вам результат: живой парсинг или использование своей базы данных и т. д.

Это важно хотя бы для того, чтобы понимать актуальность получаемых результатов.

Сегодня этих сервисов очень много, но в качестве примера вот некоторые из них:

1) https://www. keys. so/ru — один из самых известных сервисов, в нем вы можете собрать семантику самыми разнообразными способами:

  • Получить список запросов через маркеры в инструменте «База запросов». Инструмент предлагает огромный выбор фильтрации.
  • Комбинатор фраз — позволит вам автоматизировать задачу по созданию списка ключевых слов на основе пересечений. Это как раз тот способ, что мы описывали выше на основе Эксель.
  • Конечно, самое любимое многими оптимизаторами получение на базе конкурентов. Причем вы можете манипулировать семантикой, включая и выключая конкурентов, тем самым изменяя релевантность получаемой семантики и ее объем.

  • И другие инструменты — сервис ими очень богат.

Из минусов системы:

  • Ресурс платный. С другой стороны, если вы серьезно настроены на долговременную работу и предвидите поток подобных задач, то сервис очень хорошо вам поможет в работе.
  • В составе результата из базы данных или на сравнении с конкурентами вы получите некоторую долю «мусора» вперемешку с нужными запросами. Иными словами, без дополнительного разбора и чистки тут уж не обойтись. Можно настроить фильтры как внутри самой системы, так и вернуться к Excel.

В этом инструменте все очень просто, можно получить семантику как самого сайта, так и конкурента или даже пересечения нескольких брендов.

Например, используя «Сравнение сайтов», создаем условие, при котором запросы должны быть у каждого сайта, и получаем список:

С помощью фильтров мы можем задать любое условие, которому или которым запросы должны соответствовать, тем самым повышая качество запросов под наши условия.

Буквально за 30 минут мы получаем семантическое ядро, с которым можно работать, для любого e-com проекта. И бонусом — еще и понимание объема пересечения со своими конкурентами, а значит, уже есть и план на будущее.

2) «Букварикс» https://www. bukvarix. com/

Говоря о популярных инструментах поиска запросов, нельзя не сказать о таком инструменте, как «Букварикс», который бесплатно позволит вам получить довольно большую семантику, но, конечно, с немалым количеством мусора.

Впрочем, доступна и платная версия сервиса, которая значительно упростит вашу задачу по подбору контента.

В целом, говоря об этом сервисе и его минусах, отметим, что они ровно такие же, как и у https://www. keys. so/ru.

Разница главным образом в том, что в бесплатной версии «Букварикс» вы можете получить достаточно большой объем данных.

Это полностью аналогичный предыдущему инструмент, где, сравнивая сайты или анализируя, вы получаете семантическое ядро:

В бесплатной версии вам придется как следует поработать с полученной семантикой: удалить лишнее, например, по регулярным выражениям найдя брендовые запросы, или убрать все по определенной частоте.

Отличный вариант, если по каким-то причинам парсинг сайта не вариант, а тратиться на сервисы тоже почему-то не хочется.

3) just-magic. org

Еще один интересный сервис. На самом деле инструмент предлагаем больше возможностей, чем просто по расширению семантики, но сервис замечательный хотя бы тем, что вы можете комбинировать.

Собрать наиболее широкие маркеры — для этого можно спарсить сайт или самостоятельно их подготовить. Далее, используя сервисы «Расширение», «Маркеры», «Маркеры-онлайн», получить список запросов. В сервисе есть возможность некоторого управления получаемыми результатами, точнее, тем объемом запросов, которые вы получите на выходе.

Из минусов системы:

  • Платный сервис, но с достаточно большим набором инструментов.
  • Получив результат, вам придется так же пройтись по нему и почистить от ненужных вам запросов.

Здесь есть аж два подходящих нам инструмента — это «Маркеры» и «Маркеры-онлайн». «Маркеры» — инструмент, который позволит нам значительно расширить семантику. Но тут придется немного постараться.

Чтобы расширить что-то, нужно в основе это что-то подобрать на вход:

Впрочем, подобрать базовые названия разделов даже для крупных e-com несложно, можно даже обойтись без ручной переписи, получив все нужные ключи из кода страниц.

После чего, загрузив данные и получив на выходе запросы, можно перейти в инструмент «Маркеры-онлайн».

Тут понадобится два файла — в описании подробно расписано, что должно быть в этих файлах. Запускаем процесс и получаем на выходе результат. Впрочем, нет гарантии, что он вам понравится. «Маркеры-онлайн» можно заменить на любой другой инструмент, хотя бы на Key Collector 4, в котором можно собрать релевантные страницы.

Конечно, три указанных выше сервиса — это мало, но сегодня на рынке очень много программ и сервисов. Перечисление в деталях их сильных и слабых сторон может занять целый цикл статей, а главное, это будет довольно субъективная оценка. И всегда найдется человек, который скажет: «Все куплено. Так как вот этот мой любимый сервис не указан, все фуфло!»

Основная мысль только в том, что вы легко можете автоматизировать себе задачу, подобрав удобный для вас инструмент, который работает по понятным для вас условиям, вас устраивает цена и получаемый результат.

3) GPT

Говоря о быстрых способах сбора семантики, нельзя не затронуть GPT и нейронные сети в целом.

На основании «нейронок» уже автоматизируются многие задачи, и было бы странно не использовать их для сбора семантики. Опять же, смотря что вы хотите и для чего вы это хотите.

С помощью того же GPT можно вполне автоматизировать работу до определенной степени и даже разбить ее на подшаги, например подобрать «маркеры»:

Что в целом уже является неслабой помощью в работе. Кроме того, работая с GPT, можно находить нестандартные вещи или другие подсказки, а также решать прочие вторичные задачи в процессе работы с семантикой.

Более того, получив некоторые ключи на первой итерации, в последующих итерациях можно раздробить задачу на более точные операции и получить нужный вам список запросов, конкретизируя свои вопросы.

На текущем этапе пока сложно рассматривать этот инструмент как полноценную замену существующих сервисов, так как периодически «рвется» шаблон, по которым ставятся запросы, и вы можете получить совсем не то, что нужно.

Тем не менее тот опыт, что мы сегодня получаем, работая с GPT, показывает, что этот инструмент в будущем или заменит сервисы по подбору семантики, или вынудит их все глубже внедрять нейронки в свои алгоритмы.

0
12 комментариев
Написать комментарий...
Виктор Петров

Вы предлагаете использовать синтетику/генеренку? Без оценки спроса, семантических связей, интентов?

Ответить
Развернуть ветку
Георгий Шилов

да, что-то можешь возразить?))

Ответить
Развернуть ветку
Чайка О.

Любой способ сбора семантики (запросов, по которым пользователи ищут что-либо где-либо) имеет право на существование. Тут как с выбором движка — важно понимать, что и для чего ты делаешь. И не забывать показывать и объяснять клиенту варианты, чтобы клиент понимал, что его ждёт.

Ответить
Развернуть ветку
Чайка О.
Раздутое ядро

Нет такого понятия. Есть полное ядро (относительно, поскольку любое ядро можно дополнить, а через год любое ядро однозначно не будет полным). И есть разные подходы к созданию ядра, которые зависят в том числе от объёма семантики.

Ответить
Развернуть ветку
Dani4 Seo

годно! осталось только собрать частотку, удалить "нули" и загнать в кластеризатор

Ответить
Развернуть ветку
Чайка О.

Ага. Но если собирать по описанным выше вариантам, то кластеризация обычно не нужна :)
Одни плюсы (нет).

Ответить
Развернуть ветку
Dani4 Seo

нужна, мы же все в кучу сначала будем сваливать

Ответить
Развернуть ветку
Чайка О.

Не будем. Мы спарсим структуру.

Ответить
Развернуть ветку
Dani4 Seo

а если она на доноре не полная? ну, если нам нужно быстро для доров, то да

Ответить
Развернуть ветку
Чайка О.

Нафиг вам "раздутое ядро"? :)

Ответить
Развернуть ветку
Dani4 Seo

гыгыгы))) ты все равно не сдаешься))

Ответить
Развернуть ветку
Чайка О.

Семантисты легко не сдаются.

Ответить
Развернуть ветку
9 комментариев
Раскрывать всегда