{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Семантическое ядро для сайта. Пошаговое руководство без воды

Привет. Я занимался сбором семантического ядра для своего сайта с разными перерывами на протяжении последних 3 лет. До этого лет 10 меня тошнило от самой идеи. Я приступал к этому процессу, бросал, потом пробовал снова и снова бросал. SEO казалось чем-то таким заоблачным. Типа, пришёл какой-то волшебник и что-то там насеошил.

К моему большому сожалению, обилие тренингов, статей, лекций и видосов на YouTube не сильно облегчают понимание процесса сбора и обработки семантики. Перелопачивать все эти тонны воды могут лишь не все😊 А сеошники любят налить воды, мы все про это прекрасно знаем. Смотришь вот так разные тренинги, а у преподов в голове сплошная каша. Когда человек не может сформулировать свои мысли в краткой статье, ему явно не стоит преподавать. Я решил попробовать. Кратко не получилось 😊

На данный момент я занимаюсь внедрением собранной семантики на сайт и решил написать эту статью. Возможно, она поможет тем, кто только начинает в этом разбираться. Мне бы точно очень помогла. Это, по сути, пошаговое руководство. Что, за чем, как и в каком порядке стоит делать. «Делать» никуда не денется, работать придётся много, но зато теперь с пониманием, куда и как двигаться и где вообще конец этого бесконечного тоннеля.

Но, хватит предисловий, приступим к алогоритму.

Важная ремарка. Здесь не будет конкретных рекомендаций по работе с Excel. Будем считать по умолчанию, что интернет маркетолог хорошо знаком с этим инструментом. Key Collector тоже не должен быть для вас чем-то новым.

Также должен сказать, что читать этот мануал по диагонали бесполезно, т.к. он представляет из себя конкретный набор шагов, которые нужно выполнять. Без выполнения, всё это чтение "по буллетам" вам ничего не даст. Делюсь, потому что понимаю, что этот каторжный труд осилят единицы.

Итак, для сбора и обработки семантического ядра вам понадобится:

Доступы:

· Google search console

· Yandex метрика

· Yandex webmaster

Программы:

· Key Collector

· SEO Screaming Frog

· MS Excel

· Надстройка для парсинга yandex webmaster в google chrome

Платные сервисы и услуги:

· 10 прокси для Key Collector

· Pixeltools

· Just Magic

Cбор семантического ядра представляет из себя систему воронок, через которые просеиваются запросы. На каждом из этапов фильтрации вы постепенно избавляетесь от мусора.

Вам предстоит много ручной работы, много часов труда. Чем выше ваша вовлеченность в бизнес и понимание тематики, тем проще вам будет отделить мусор от полезных запросов.

Вводные данные: у вас уже есть сайт, который вы создали по своему усмотрению и пониманию того, каким должен быть идеальный поисковый спрос. Пора столкнуться с суровой реальностью. Сайт приносит какие-то деньги, но хочется больше.

Источники семантики / запросов:

· Keyso - сервис видимости конкурентов

· Счётчики на вашем сайте (метрика, вебмастер, сёрч консоль)

· Yandex wordstat

· Метатеги сайтов конкурентов

· Подсказки в Yandex и Google

ШАГ 1. Сервисы видимости

1. Находите на kwork или подобной бирже человека, который делает выгрузки из keyso за деньги. Покупаете у него выгрузку по 15 основным конкурентам. 15 будет достаточно. Если вы занимаетесь своей темой давно, 15 основных конкурентов у вас уже будут на слуху. Это будет большущая таблица с запросами.

2. Делаем выгрузку из метрики и сёрч консоли

3. Собираем с помощью плагина для google chrome информацию из вебмастера

Где смотреть:

· Метрика: стандартные отчеты - источники - поисковые запросы

· Вебмастер: поисковые запросы - управление группами - все запросы

· Сёрч консоль: эффективность - запросы

Делаете выгрузку за 1 год из этих источников.

ШАГ 2. Парсинг конкурентов

Находите сайты конкурентов. Чем больше найдёте, тем лучше.

Осматриваете сайты на предмет оптимизации. Обычно сразу видно, ведется над сайтом работа или он сделан лишь бы как и не стоит внимания.

Парсите все отобранные сайты с помощью программы SEO Screaming Frog. Вам нужны данные из полей title и h1.

Как правило, у большинства сайтов эти теги сделаны по шаблонам и не составит большого труда удалить из тегов лишнюю информацию и оставить только ключевые слова.

Обрабатываете title и h1 конкурентов в Excel. Собираете всё это в одну большую таблицу.

ШАГ 3. Фильтрация по частотности

Загружаете результаты ваших сборов в Key Collector.

Настройки в KC - вашего региона, если бизнес сильно к нему привязан. Если он универсальный, выставляйте Москву. Там будет больше статистики.

Можно предварительно перед загрузкой в Key Collector заменить в вашей базе слов точки, запятые, тире, дефисы и слэши на знак пробела и почистить фразы от двойных пробелов.

Можно предварительно почистить вашу базу от мусора. На ваше усмотрение. Но я на этом этапе не советую этим заниматься, т.к. база очень большая и проще сначала убрать из неё всё, что можно, автоматически.

К этому моменту вам понадобятся платные прокси. Покупаете их и прописываете в настройках программы Key Collector. Настройки для парсинга не привожу. Нагуглите сами. Вы уже большие.

Итак, вы загружаете в KC вашу базу ключевых слов и парсите базовую частотность с помощью прокси. С вашего основного IP парсить бесполезно. Это пустая трата времени и потенциальный бан от поисковой системы.

Если частотность собирается слишком долго, можно воспользоваться платными сервисами типа https://moab.tools/Parse/CheckWordstat

Ваша задача на этом этапе избавиться от нулевых запросов.

После парсинга базовой частотности переносите нулевые запросы в отдельную мусорную папку в Key Collector. Вы НЕ удаляете запросы. Это нужно для того, чтобы в дальнейшем мусор не попадал в вашу базу по второму кругу.

В вашем проекте в KC теперь будет три папки для мусора:

1. базовая частотность = 0

2. "точная частотность" = 0

3. "!точная !частотность" = 0

Как вы уже поняли, после того, как вы уберете запросы по первому параметру, нужно будет спарсить частотности по двум остальным

После каждого из этапов чистки, запросов в вашей семантике будет оставаться всё меньше, а мусора будет становиться всё больше.

При сборе базовой частотности может оказаться, что для каких-то запросов она не собирается. Это нормально. Запускайте сбор частотности повторно. То, что не собралось, соберется. Останутся:

· запросы слишком длинные (больше 7 слов).

· запросы со спец символами

Кто-то заморачивается и пытается оставить длинные запросы в ядре. У меня не настолько конкурентная тематика, поэтому я их просто переношу в мусор. Поверьте, вам хватит работы и без них. И при желании в дальнейшем к ним можно будет вернуться.

ШАГ 4. ГЕО

После того, как в вашей базе остались запросы с "!точной !частотностью" > 0, мы чистим их по ГЕО. Удаляем гео запросы.

Для этого вы лично формируете свою первую базу минус слов для KC – ГЕО.

Там будут города, населенные пункты, регионы, области, страны в различных вариантах склонений и описаний. Для склонения можно использовать сервис https://morpher.ru/Opt/

ШАГ 5. Мусор, часть 1

После чистки по ГЕО вы составляете собственный словарь мусорных "минус слов". Вы собираете ваш персональный список минус слов, таких как: порно, скачать, форум и прочее.

Список будет постепенно расширяться, упрощая вам первичную фильтрацию в дальнейшем. Не ленитесь добавлять в него частотные мусорные слова. Для каждой тематики такой список минус слов свой собственный. Поэтому не стоит искать какие-то универсальные списки. Создавайте свой собственный.

Слова, которые наиболее часто встречаются в вашем списке запросов можно посмотреть с помощью инструмента "анализ групп" в KC. Да, там можно искать не только что-то полезное, но и мусор. Вообще именно с поиска мусора в этом инструменте и стоит начать. Сканировать список запросов глазами – так вы далеко не уедете.

Удаляем из нашего списка самый очевидный мусор.

ШАГ 6. Бренды

Отделяем брендовые и товарные запросы от чистых категорийных. Для этого вы составляете собственный список брендовых "минус слов". Сюда входят различные варианты написания брендов, транслит, опечатки.

Отсеиваете список запросов по брендам, вынося все такие запросы в отдельную папку "Брендовые запросы".

ШАГ 7. Инфо

Отделение инфо запросов. Составляете ваш собственный словарь минус слов, которые позволят отделить информационные запросы от коммерческих. Сюда входя такие слова как отзывы, топ, рейтинг, лучший, обзор, и т.д.

Убирайте информационку в отдельную папку "информационные запросы"

ШАГ 8. Товарка

Отделяете бренды от товаров. Часто в названиях товаров используются цифры - это один из простейших способов отделить бренды от товаров.

Если брендовый трафик для вас имеет большое значение, работайте с этой папкой в KC.

Используйте возможности KC для поиска: "анализ групп" - это очень мощный инструмент

Также вам пригодятся инструменты фильтрации, такие как «фраза содержит / не содержит»:

· цифры

· латинские буквы

· буквы кириллицы

· повторы слов

ШАГ 9. Первичная структура

Составление первичной структуры сайта в Key Collector. Это необходимо для упрощения дальнейшей фильтрации.

Создавая структуру сайта в KC, вы также упрощаете себе в дальнейшем парсинг и обработку запросов, т.к. они будут собираться примерно из одной и той же темы / группы запросов и отсеять мусор из одной такой пачки намного проще, чем пытаться убрать его из одной большой общей кучи.

Чем детальнее вы создадите структуру проекта в KC, тем проще вам будет работать

Данная структура нужна только для парсинга и фильтрации. То, что вы будете внедрять на сайт, от этой предварительной структуры будет очень сильно отличаться

ШАГ 10. Сортировка

Работаете со "структурой", сортируя запросы по папкам, параллельно избавляясь от мусора. Это самый длительный и занудный процесс, но его нужно пройти.

Параллельно вы будете находить гео, мусор, информационку, брендовые и товарные запросы, а ваши словари минус слов будут пополняться. Структура будет становиться более детальной и понятной. У проекта начнут вырисовываться черты, вы наконец-то поймете, сколько всего вы упустили.

Вы научитесь работать с "анализом групп" и фильтрами в KC, помимо структуры создадите необходимые лично вам подпапки в KC.

В целом уже начнёт складываться понимание как это всё работает, что удобно, а что - нет.

Заодно, поковырявшись в меню КС, вы найдете способы простого перемещения списков запросов по папкам. и в целом поднатореете в тематике.

Заодно увидите сколько новых вариантов написания уже известных вам запросов существует, а вы о них и не догадывались.

ШАГ 11. Отдохните

Итак вы разгребли вот это всё: метрика, вебмастер, сёрч консоль, keyso, метатеги конкурентов.

Это уже большое достижение. У вас уже также создана структура сайта в KC для парсинга запросов, которая позволит эффективно собирать вам нужные группы запросов.

К этому моменту вы должны уже ненавидеть KC и его мелкие буковки, правая рука - стонать от приближающегося тоннельного синдрома, а глаза - просить пощады.

Ну что, же, приступим к парсингу.

ШАГ 12. Парсинг запросов

Благодаря сформированной структуре, вы можете зайти в любую из папок с запросами, включить анализ групп и найти там все существительные.

Существительные - это основа маркеров для парсинга.

«Анализ групп» позволяет легко найти самые частотные слова и легко составить небольшой список маркерных фраз для последующего парсинга Wordstat.

Итак вы составили список маркеров для конкретной папки. Берете их и все запросы, которые уже есть в этой папке и собираете вордстат по всем этим фразам.

Далее повторяете перечисленные выше этапы с чисткой. Теперь чистка будет проходить уже намного проще, ведь вы работаете с небольшими участками сем ядра. И мусор в таких условиях чистить гораздо проще. Ведь то, что является мусором в одной категории, в другой – совсем не мусор. В общем, вы меня поймете, когда поработаете в KC хоть немного.

Чистку опять начинаете с частотности, потом гео, мусор, бренды, информационка. В итоге останется не так много рабочих запросов.

При парсинге сюда будут прилетать запросы из других групп, сортируем всё это дело по своим местам.

ШАГ 13. Глубокий парсинг

Если вы хотите максимально глубоко погрузиться в тему, вы берете высокочастотные слова и парсите их в таких вариантах

· "слово слово слово слово слово слово"

· "слово слово слово слово слово"

· "слово слово слово слово"

· "слово слово слово"

· "слово слово"

· "слово"

Таким образом вы максимально обходите ограничения Wordstat по выводу слов, ведь глубина просмотра статистики у него всего лишь 41 страница и в больших тематиках этого часто не хватает.

Для этого вы и парсите 6-5-4-3-2-1-словники по-отдельности.

ШАГ 14. Сбор подсказок

После того как пройдены все 13 предыдущих этапов, вы берете все запросы из любой папки и парсите по ним подсказки.

Далее чистите, фильтруете и сортируете.

Работа довольно муторная как и всё что связано с сем ядром, но зато вы можете быть уверены, что мало кто из конкурентов способен пройти через весь этот ад. Ну и фильтровать подсказки по конкретным группам – это детский сад по сравнению с тем, что вы уже проделали ранее.

ШАГ 15. Just Magic

Ура. вы собрали сем ядро. Радоваться, однако, рано. Собранная и внедрённая семантика - это две больших разницы. Приступим к следующему этапу.

На данном этапе основная работа с KC закончена и мы переносим собранное сем ядро / а точнее ту часть, с которой вы решаете работать, в Excel.

Работайте с отдельными группами, относительно большими кластерами, которые вы бы вынесли на первый / максимум на второй уровень в меню вашего сайта.

Не стоит сильно углубляться в подпапки но и не стоит сразу хвататься за весь сайт.

Берём группу запросов, с которой мы решили работать.

Регистрируемся в Just Magic и парсим там частотность ["!слово !слово"] - это самая точная словоформа и порядок слов, именно её стоит использовать в работе.

JM любит сортировать запросы по алфавиту. Учитывайте это и используйте формулы Vlookup / ВПР в Excel.

Убираем из нашего списка в Excel все запросы, у которых ["!слово !слово"] = 0.

Создаём новый пустой (!) проект в KС.

Загружаем в него оставшиеся запросы и супер точную частотность, полученную в Just Magic.

Используя инструмент KC "анализ неявных дублей", отмечаем в списке "неявные дубли".

Выгружаем полученный список в Excel, вставляем эти данные в нашу таблицу

Убираем из списка запросов в Excel неявные дубли.

Вы только что сократили вашу табличку примерно на 30-40%.

Для оставшихся запросов используем сервис "тематический классификатор" Just Magic.

Он позволяет еще более точно просеять оставшийся список и найти потенциально проблемные запросы, которые стоит убрать из ядра.

Проходимся по списку глазами/руками еще раз, отмечая лишнее.

ШАГ 16. PixelTools

Итак у нас остались запросы без дублей, с максимальной точной частотностью, просеянные через тематический классификатор.

Регистрируемся в Pixeltools и собираем там параметры «Гео/коммерциализация», а также делаем кластеризацию запросов в Just magic.

Это всё платные инструменты. Но если вы когда-нибудь сливали деньги в контексте, суммы за эти услуги не должны вас шокировать. Экономить тут не стоит. И стоит это совсем не космических денег, ведь вы делаете семантику для себя любимого.

Почему кластеризация в JM? Потому что там очень удобно за один проход делается кластеризация на нескольких уровнях. Это очень наглядно и выглядит в Excel позволяет быстро перегруппировать запросы в случае необходимости, не прибегая к повторной кластеризации.

Не нужно возиться с кучей настроек в Key Assort, не нужно по нескольку раз перекластеризовывать ядро, ища подходящий вариант, в Pixeltools тоже кластеризация не наглядная. JM на данный момент в табличном виде мне кажется самым удобным.

Почему идёт работа с 2 сервисами? Это упрощает аналитику и помогает сделать выбор, основываясь на показаниях в 2 разных источниках. В таблицах с такими данными работать намного проще.

В итоге у вас будут собраны вот эти параметры:

Pixel tools:

· геозависимость

· локализация

· комерциализация

· витальный ответ

Just Magic:

· "[!проверяемая !фраза]"

· тематика

· группировка по 4 уровням

· наличие главных страниц в выдаче

· комерциализация

· геозависимость

К сожалению, в JM нет возможности собрать гео и коммерцию отдельно, это работает только при кластеризации. Ну, работаем с тем, что есть.

ШАГ 17. Excel

Обработка таблиц с полученными данными в Excel. Сортируете всё это чудо, используете условное форматирование столбцов с необходимыми вам данными, чтобы проще их читать.

На этом этапе из списков ваших запросы отсеются потенциальные инфо запросы, которые вы посчитали коммерцией.

А также вы быстро пройдётесь по названиям групп, которые уже были выгружены из KC и сравните их с данными, полученными в JM.

Это первичная кластеризация с первой ручной корректировкой данных

ШАГ 18. Чистовая кластеризация

После отсева мусора в результате первичной кластеризации, берете оставшийся у вас список запросов из разных подгрупп одного большого раздела, сваливаете их в кучу и на этот раз делаете кластеризацию уже всего списка запросов в JM.

Она пройдёт более качественно, т.к. мусор вы уже убирали руками. Он всё равно будет, но уже в единичных случаях. В целом это и есть ваш финальный список запросов.

Далее вы проходитесь по нему вручную и решаете, нужно ли дробить какие-то кластеры на отдельные, переносить ли какие-то запросы из одной группы в другую.

Сортировка по группам в JM + ваша личная сортировка запросов по группам, которую вы сначала сделали в KC, а потом перепроверили в Excel, сделает обработку финального списка запросов простой и наглядной.

В итоге у вас получится таблица, которая называется "карта релевантности". В ней будут сгруппированы запросы для каждого из кластеров. Вам останется только проставить для них продвигаемые URL.

У многих групп запросов таких URL / страниц не будет, их придётся создавать на сайте.

Проанализировав получившиеся группы / кластеры, вы поймете для каких из них нужны отдельные страницы, а для каких хватит настроек в фильтрах категорий на сайте.

Далее, работая уже с конкретным ассортиментом на сайте, вы поймете, что некоторые из полученных в результате кластеризации групп просто нельзя использовать, потому что в каталоге нет таких товаров, соответственно, список рабочих кластеров станет еще меньше.

Всё. Создаете страницы и следите за апдейтами.

В итоге у вас есть:

1. Проект в KC который вы можете пополнять новыми запросами, ведь конкуренты не спят и стоит периодические заглядывать к ним, смотреть, что у них новенького. Парсить их и ваши маркеры.

2. Карта релевантности - вещь, которая есть далеко не у каждого.

3. Благодаря карте релевантности у вас есть чёткое понимание, какие страницы нужно создать, какого ассортимента не хватает на сайте, как его стоит там разместить, как изменить структуру каталога для удобства навигации, какие страницы наиболее популярны и значит должны быть наиболее заметны в меню и навигации. Всё это было бы невозможно без описанных выше шагов.

4. Если вы захотите написать инфо статью, у вас уже будут собраны инфо запросы в вашем проекте. Останется только немного их доработать.

Если сайт и ассортимент большой, эти все описанные шаги нужно будет проделать для каждого из больших разделов. Невозможно осилить всё сразу, но у вас уже есть очень мощная база, к работе над которой вы можете вернуться в любой момент, как только у вас появится вдохновение.

Пример предварительной группировки одной большой группы товаров в KC для мотивации. По цифрам в мусоре вы можете понять сколько всего пришлось отсеять.

Автор мануала https://www.facebook.com/gtrplayer

0
74 комментария
Написать комментарий...
Виктор Петров

Охохо. Долго и с пачкой лишних телодвижений.
1. Определите маркеры. Можно брать по конкурентам из топа
2. Закидываем маркеры с синонимами в KC (парсинг по Вордстат). Парсим варианты.
3. Вычищаем частотку по Вордстат у полученных запросов и снимаем её по Директу за год.
4. На всякий пожарный можно снять данные по сезонности - таким образом можно отсечь накрученные разово и понять, какие из ключиков - сезонные.
5. Теперь фильтруем по частотке. Те, что по условно-точной частотке менее 30 (в конкурентных темах) - под нож. В низкочастотных и только развивающихся сегментах можно эту цифру и уменьшить.
6. CTR меньше 5% - можно срезать, это, вероятно, информационка.
7. Запросы, где частотка по общей частоте, условно-точной и точной равны - рассмотреть. Среди них попадается много накрученных.
8. Закидываем в KeyAssort или другой кластеризатор, прогоняем по жёсткому алгоритму (порог в 3). Оцениваем группы. "Хвосты" далеко не всегда позволят понять, коммерческий это запрос или информационный - а вот кластеры практически всегда.
9. Дополнительно фильтруем, структурируем полученные группы.
Вуаля, уже можно жить.
В зависимости от объёма ядра - от 3 часов до пары недель займёт. Дальше - только масштабировать, за счёт новых ключей, данных по конкурентам, Гуглу или даже по реальным запросам юзверей из Вебмастера или Метрики. Но этот процесс уже не заканчивается, лыко и мочало - каждый квартал сначала.

Ответить
Развернуть ветку
Вера Гагарина

Что есть маркеры из первого пункта? Типа примеры ключей главных?

Ответить
Развернуть ветку
1 комментарий
Michael

Да, накрученные хорошо видно, когда точная и базовая совпадают.

А по директу за год зачем снимать? 

Ответить
Развернуть ветку
3 комментария
Павел Яньшин

Виктор, можно узнать, как вы снимаете данные в Директе за год, каким сервисом? Коллектором? Но там же данные из прогнозного бюджета, если я не ошибаюсь

Ответить
Развернуть ветку
2 комментария
Александр Романенко

8. Добавил бы, что после кластеризатора удобно закинуть в коллектор на анализ групп, или изначально его только и использовать. Возможно дольше по времени получиться, но этот вариант дает больше гибкости в работе с группами, заодно и по будущей структуре больше понимания будет.

Ответить
Развернуть ветку
Дмитрий Литвинчук

Думаю, что для начинающих SEO-специалистов эта инструкция составлена не структурно и даже термины используются часто не профессионально - ведь, не сложно же было Google Search Console вместо серч консоль.

Ответить
Развернуть ветку
Чайка О.

Считаю, что это не инструкция в принципе. Это личный опыт.

Ответить
Развернуть ветку
12 комментариев
Max Ivanov
Автор

главное, чтобы человек читающий меня понял ) и конечно же, всегда найдётся, что сделать лучше)

Ответить
Развернуть ветку
Alexey Vasilevsky

Для меня было достаточно сложно это все прочитать и уж тем более потом сделать. Рекомендуемые инструменты мне показались тоже сложные. Наверное это все для очень большого екомерц проекта с кучей с страниц и большим кол-ом позиций. Лично мне удалось вывести сайты в топ не прибегая к такому сложному процессу составления ядра. Просто много времени провел в ahrefs изучая ключи + изучал интенты. Хватило бумаги и ручки.

У кого-то есть опыт, что все описанное выше действительно помогает, а не усложняет?

Ответить
Развернуть ветку
Чайка О.

Описан способ, который близок автору. И он запутанный. Более простой алгоритм у А. Ожгибесова.
Ядро - это набор сгруппированных запросов пользователей. Это может быть книга Excel  или бумажные листы с записанными запросами. Собирать можно по-разному. Использование специального софта - это удобство и экономия времени (но его сначала нужно потратить на изучение инструментов), возможность не запутаться в большом объеме данных. 
Самый простой способ заиметь ядро: "правильный" список конкурентов -  выгрузка их семантики из базы (тут кому какая нравится) - кластеризация.  Есть ущербность в этом подходе, как и в любом другом.
Глубокая проработка семантики нужна, если хочется выгрести всё :)

Ответить
Развернуть ветку
5 комментариев
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
8 комментариев
Максим Пряник

Очень много лишних телодвижений, структуру можно составить по интентам топ 5 конкурентов по видимости в поиске. Группы с интентами создаются в коллекторе, для каждого конкурента парсится по топу 5 каждый интент. Запросы копируются, вставляются в кк и проверяется точная частотка сразу. При любом раскладе важно отличать нормальных пацанов от накрученных.

Ответить
Развернуть ветку
Max Ivanov
Автор

Уточните, что именно вы понимаете под интентами и как именно вы их собираете? И для чего копировать из одного проекта в КК в другой?

Ответить
Развернуть ветку
4 комментария
Igor Tarasov

А сколько стоят полобные услуги? У нас как раз сейчас возникла подобеая задача, но чуть прощев чём-то, а в чём-то чуть сложнее.

Нам нужны корммерческие запросы, которых нет в топ-10 яндекса и гугл в фррмаие, который в топвизор можно загрузить? Естественно нужно это только для продающих страниц. 

Ответить
Развернуть ветку
Max Ivanov
Автор

Зависит от размера вашей ниши, от того какой её кусок вы хотите проработать. Думаю, что подобная работа должна оцениваться попроектно. Месяц работы специалиста от 100 000 рублей, на мой взгляд, адекватная цена за этот адский труд.

Ответить
Развернуть ветку
5 комментариев
Ivan Lepski

Зачастую сложность составления семантики сильно преувеличена ....

Ответить
Развернуть ветку
Виктор Петров

Практика это опровергает.
а) Семантика - основа структуры сайта. Если не знать, какой её видит нейросеть - вы потеряете позиции, если они были, вы не получите трафика, который могли бы получить - но сайт физически к этому не готов. У вас просто нет релевантного документа;
б) Семантическое ядро - величина динамическая. Сегодня ваш запрос - это просто пресс релиз, завтра - категория товаров, послезавтра - уже нужна архивная страничка с мемуарами "Вот был же когда-то такой товар". А в новых и сложных тематиках отсутствие мониторинга пользовательского спроса и вовсе равнозначно потере рынка и прибыли. Банальный пример: вы торгуете какими-нибудь интерактивными столами и так их и называете. А пользователи предпочитают называть их "интерактивными панелями" - но у вас под этот ключ ничего нет. Потом юзвери перестают спрашивать просто "интерактивные панели", и спрашивают про интерактивные панели с каким-то особым разрешением - а у вас нет на сайте на эту тему ничего. Просто потому, что пользовательский спрос никто не мониторит, и соответствующих посадок на сайте нету.
Тут несколько важных уровней: структура, спрос, релевантность. И каждый пункт прямо влияет на ранжирование, а значит - и на продажи в конечном итоге.

Ответить
Развернуть ветку
Чайка О.

Зависит от задачи и ресурсов.

Ответить
Развернуть ветку
Вера Гагарина

Щас такие поисковики - что можно уже без ядра. Точные вхождения не нужны

Ответить
Развернуть ветку
Виктор Петров

Нет, нельзя. Наоборот, важность проработки семантики только увеличивается. И усложняется.
Не работали со структурой и не приоритизировали ключи - будете читать жалобные статьи про агрегаторов и накрутки.

Ответить
Развернуть ветку
Ришат Рафиков

😂😂😂 очень смешно

Ответить
Развернуть ветку
Николай Фисюков

Не знаю, мне проще видосики смотреть и делать, нежели читать так много)))

Ответить
Развернуть ветку
Max Ivanov
Автор

так тоже можно. но придётся отсматривать многочасовые мануалы по маленьким кусочкам того что я изложил в статье. вообще чтобы получить что-то путёвое на выходе, придётся прилично поднапрячь булки. на расслабоне даже с видосиками не прокатит :) смотреть - не делать :)

Ответить
Развернуть ветку
Макс Лакостов

А можно объяснить мне, как человеку только начинающему, какой результат для бизнеса ожидается после всех этих усилий? Мне пока нормальным языком ни один сеошник не объяснил, за что я ему должен заплатить. 

Ответить
Развернуть ветку
Max Ivanov
Автор

я не знаю, за что конкретно у вас просил деньги сеошник. работы у них есть много всякой разной. сбор семантического ядра для сайта - это первооснова всего. никакой приглашенный сеошник, на мой взгляд, не сделает это достаточно качественно и детально. только человек из бизнеса с личным интересом. за деньги это будет по вершкам, как тут предлагали коллеги выше. никто не будет месяцами корпеть над ядром для человека, который платит даже сотни тысяч рублей, не говоря уже о том, кто не понимает за что тут платить ) что такое семантическое ядро для вас - это грубо говоря карта вашего сайта. в результате всех трудов это то, сколько и каких страниц на вашем сайте должно быть, чтобы туда пришли люди и оставили там свои деньги. вы же хотите больше денег?

Ответить
Развернуть ветку
Илья Ефимов

За правильную структуру слов для сайта и для создания текстов, за прояснение сознания, за поверхностную сегментацию рынков, за верные векторы развития компании, которых обычно вообще нет.

Ответить
Развернуть ветку
Чайка О.

Ещё один подход к семантике. Да, телодвижений много, но тут уж кому как удобно. 
Методы можно выбирать в зависимости от проекта: коммерция/инфо, объём семантики (не всегда очевиден, но уже на стадии сбора маркеров можно прикинуть).

Ответить
Развернуть ветку
Max Ivanov
Автор

Сбор маркеров в моем workflow - это парсинг метатегов у сайтов конкурентов. Там, кстати, оказывается очень много лишней шелухи с нулевой частотностью. Люди выкатывают на сайты лишь бы что. Сбор маркеров руками, на мой взгляд, довольно бессмысленное занятие.

Ответить
Развернуть ветку
2 комментария
Max Ivanov
Автор

Вот оно, как оказывается ) Можно, наверное, и без сайта тогда )

Ответить
Развернуть ветку
Алексей Алешин

Очень полезная статья. Я для себя решил: заниматься seo самостоятельно не буду.

Ответить
Развернуть ветку
Max Ivanov
Автор

Да, я тоже планирую довести свой проект до какого--то уровня и отдать специалистам. Просто тупо нет столько часов в сутках. Хочется делать много всего другого в жизни.

Ответить
Развернуть ветку
АKVARIUS // Современная сантехника и плитка

Здравствуйте товарищи специалисты. Есть вопрос по CЯ, надеюсь на помощь. Нам сдали СЯ с кластеризацией. Выглядит следующим образом.  Честно говоря впервые вижу такую структуру и не информативное ся. Стоит ли принимать такую работу или это  последние тренды?) Может я и не прав, т.к. не специалист в этой области, но в основном, то что я видел до этого было куда информативнее. Например, не понимаю, как с таким сяо будут работать директологи и смогут ли. Можете дать какую-нибудь информацию? Это можно назвать полноценным СЯ?

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
71 комментарий
Раскрывать всегда