{"id":14289,"url":"\/distributions\/14289\/click?bit=1&hash=892464fe46102746d8d05914a41d0a54b0756f476a912469a2c12e8168d8a933","title":"\u041e\u0434\u0438\u043d \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442 \u0443\u0432\u0435\u043b\u0438\u0447\u0438\u043b \u043f\u0440\u043e\u0434\u0430\u0436\u0438 \u043d\u0430 5%, \u0430 \u0441\u0440\u0435\u0434\u043d\u0438\u0439 \u0447\u0435\u043a \u2014 \u043d\u0430 20%","buttonText":"","imageUuid":""}

38 неочевидных точек роста для доминирования при помощи белого SEO часть #1

Всем привет.

Что делать SEO-специалисту, который, казалось бы, уже полностью проработал проект:

  • техничка сделана;
  • структура покрыта;
  • мета-теги написаны;
  • коммерческий / ЕЕАТ аудит внедрен;
  • информационные статьи пишутся;
  • работа по покупке ссылок ведется;

В этой статье хочу поделиться своей подборкой неочевидных точек роста, которые могут быть полезны на вашем проекте. Вероятно, кто-то скажет, что это очевидно и работы, которые будут предлагаться ниже, выполняются по умолчанию. НО! Так как рынок digital не регламентирован, то сюда очень круто вписывается цитата:

Кто как хочет так и др.… ит.

Дима Петренко

При этом, статья получилось большой, поэтому разделил ее на 2 части. Вторая часть статьи будет опубликована через неделю. Так что перехожу сразу к делу.

Содержание

1. Проверить заголовки Н1 с перестановкой слов

Если работа над сайтом ведется уже давно или же вы получили проект от других подрядчиков, то не будет лишним проверить частоту текущих заголовков Н1, особенно это касается интернет-магазинов.

Ведь может быть ситуация при которой, в заголовке Н1 используется далеко не самая лучшая словоформа.

Каков порядок работы:

1. парсим все услуги / каталоги (если интернет-магазин);
2. заказываем макрос или используем chatGPT (или любой другой аналог), чтобы он нам выдал массив со всеми возможными перестановками для каждой страницы, пример:
-диваны прямые еврокнижка;
-прямые диваны еврокнижка;
-диваны еврокнижка прямые;
-еврокнижка диваны прямые;
-прямые еврокнижка диваны;
-еврокнижка прямые диваны;
3. пробиваем частотку всех словоформ по всем страницам;
4. сравниваем текущий Н1 на сайте и лучший Н1 с точки зрения частоты;
5. Там, где есть расхождения меняем заголовки Н1;

Частотность проверяем в "[!]".

Как это выглядит у меня:

Что в итоге: получаем корректные заголовки Н1 и теги title, поскольку в title часто подтягивается Н1 в качестве переменной и как следствие получаем лучшее ранжирование по кластеру.

2. Проанализировать текстовую релевантность

Здесь речь идет о самом шаблоне сайта (а не seo тексте на какой-то отдельной страницы), пример:

  • сквозное меню;
  • футер;
  • вывод сквозного контента на типовых страницах
  • и т. д;

Подготовил данные для кластера «прямые диваны», 6 страниц в качестве эталонных были взяты из ТОП-10, а сравниваемая страница была взята из ТОП-20-30:

в результате вот что имеем:

  • На первом скрине видим, что на сравниваемой странице текста больше в 3,5 раза чем по медиане из ТОП-10;
  • На втором скрине видим, что недобор по слову «прямой» хотя напомню, что анализируется кластер именно «прямые диваны», перебор, по другим словам: «кровать» и т. д;
  • На третьем скрине показана визуализация частотного словаря страниц из ТОПа и сравниваемой. Как видно на сравниваемой странице в зонах «текст и ссылки» и «зона текста» отсутствуют словоформы «диван» и «прямой», хотя они должны быть примерно по центру как на первой строке облаков;

Итого:

  1. На анализируемой странице текста больше почти в 4 раза чем в среднем по ТОПу;

  2. Недобор вхождений «прямой» и большой перебор по слову «кровать»;

  3. По частотному словарю видим, что страница нерелевантна кластеру «прямые диваны»;

Не стоит удивляться почему страница ранжируется В ТОП-30.

ВАЖНО! Многие скажут, что в ТОП-10 большие и прокаченные по хосту домены и это правда. Однако стоит учитывать, что, поправив сам шаблон, который одинаков для всех листингов, вы сможете разом улучшить свою текстовую релевантность по другим СЧ/НЧ кластерам и сильно прибавить в ранжировании своего проекта. Я лишь показал пример как это выглядит.

3. Проанализировать цену товарной матрицы родительских листингов

Как-то у меня был интернет-магазин мебели, который работал в ценовом сегменте выше среднего. Когда я зашел в категорию «диваны» обнаружил, что на первой родительской странице листинга https://site. ru/catalog/divany/ были товары стоимостью 350 000 не все конечно, но встречались часто.

Стоит ли говорить о шоке пользователей, которые попадя из ТОП-10 выдачи, где стоимость диванов в среднем 30 000 – 50 000 увидят на первых экранах товары со стоимостью несколько сотен тысяч рублей?

Повышенный% отказов и возврат в выдачу обеспечен для многих.

Каков порядок работы:

  1. Генерируем основные маски ключей для парсинга: купить + Н1 (купить прямые диваны) и т. д;
  2. Парсим ТОП-10 выдачи;
  3. Агрегируем уникальный список доменов конкурентов;
  4. Далее идем ручками на сайты конкурентов и забираем у них xpath с ценами товаров или отдаем джуну (простая, но очень рутинная и трудозатратная задача);
  5. Делаем массовый парсинг через лягушку;
  6. Агрегируем в excel;
  7. Добавляем в excel данные видимости по кластеру;
  8. Анализируем данные;

Пример:

То есть считаем среднюю и медиану по каждому URL, плюс считаем среднюю от средней и медиану от медианы по каждому кластеру. Далее смотрим и правим свои листинги по необходимости.

Также стоит учитывать потребности бизнеса, более дорогие модели товаров — это нормально, просто здесь нужно подстроиться под медиану и скорректировать именно первый родительский листинг, а более дорогие товары можно выводить на пагинации.

Что в итоге: улучшаем свои естественные ПФ и снижаем вероятность возврата на выдачу.

4. Проанализировать количество товаров родительских листингов

Пункт похож на предыдущий только уже смотрим не на цену, а на количество товаров.

Каков порядок работы:

  1. Генерируем основные маски ключей для парсинга: купить + Н1 (купить прямые диваны) и т. д;
  2. Парсим ТОП-10 выдачи;
  3. Агрегируем уникальный список доменов конкурентов;
  4. Далее идем ручками на сайты конкурентов и забираем у них xpath с товарами или отдаем джуну (простая, но очень рутинная и трудозатратная задача);
  5. Делаем массовый парсинг через лягушку уже с подсчетом количества товаров на странице;
  6. Агрегируем в excel;
  7. Добавляем в excel данные видимости по кластеру;
  8. Анализируем данные;

Пример:

Смотрим на свое количество товаров в срезе с конкурентами, если видимость низкая, а у вас 5 товаров в листинге, в то время как у конкурентов по 50, то думаю вы уже догадываетесь что нужно делать.

По моей практике нет смысла создавать листинги если на них будет меньше 10 товаров т. к. они просто не будут ранжироваться в долгосрочной перспективе (хотя изначально бандит отыграет). Знаю ребят, которые так делают, здесь уже каждый принимает решение.

Что в итоге: улучшаем свои естественные ПФ и снижаем вероятность возврата на выдачу.

5. Проработать страницы с низким CTR

Может быть ситуация, когда страница хорошо ранжируется, но имеет низкий CTR. Это может быть по разным причинам:

  • Большое количество колдунщиков;
  • 100500 объявлений контекстной рекламы;
  • Плохой сниппет — не кликбейтные мета-теги, кривые мета-теги (когда поисковая система сама берет контент со страницы), отсутствие микроразметки, отсутствие favicon;
  • и т.д;

Поэтому важно проверить такие страницы и проанализировать выдачу.

Какой порядок работы:

  1. выгружаем данные из сервиса позиций;
  2. выгружаем данные CTR из Google Search Console и Яндекс вебмастер;
  3. при помощи функции ВПР объединяем данные;
  4. анализируем страницы с хорошей видимость, но с низким CTR;
  5. дорабатываем страницы;

Что в итоге: сразу получаем трафик.

6. Проработать свойства и параметры фильтрации

Здесь необходимо постараться встать на сторону пользователя и попытаться пройти его путь по выбору товара. На данном этапе можем обнаружить что фильтрация товаров не такая удобная как хотелось и все из-за отсутствия важных свойств и параметров.

Пример свойств для кластера «Ноутбуки» DNS, который в ТОП-1 и МТС, который в ТОП-30:

В таблице указаны только свойства, а в каждом свойстве может быть несколько параметров!

Таким образом в DNS 81 свойство фильтрации, а в МТС 16. Конечно, может быть нет смысла все свойства брать себе, однако стоит проанализировать и добавить себе только важные. Анализ делаем не по одному сайту, а берем ТОП-10.

Но задача может быть сложной т.к. если свойство не выводится, значит:

  1. оно не создано в админке сайта;
  2. товары не размечены этим свойством;

Поэтому задача может потребовать больших трудозатрат контент-менеджера или других ответственных сотрудников.

Что в итоге: улучшаем свои естественные ПФ, снижаем вероятность возврата на выдачу и добавляем новые важные слова, которые положительно скажутся на текстовой релевантности.

7. Исправить орфографические и грамматические ошибки

Скажите честно кто-нибудь хоть раз проверял сайт на орфографические и грамматические ошибки? Вы даже не представляете сколько ошибок и опечаток, может быть на сайте, особенно если это большой контентный проект.

Так что, если вы ни разу этого не делали, стоит попробовать. В той же лягушке давно есть такой функционал.

При этом, ошибки проверяются не только в теле статьи, но еще и в мета-тегах.

Что в итоге: убираем ошибки, делаем текст редакторским и экспертным.

8. Выводить разные названия товаров в листингах

Доводилось ли вам видеть сайты, на которых в листингах к названию товаров подставляется определенный параметр в зависимости от того какой это листинг?

Пример для кластера «бежевые диваны»:

  • Листинг hoff;
  • Листинг inmyroom;

То есть один и тот же товар на разных листингах может иметь разные названия, пример для «Диван-кровать Лион»:

  • Для листинга «бежевые диваны» название формируется «Диван-кровать Лион бежевого цвета»;
  • Для листинга «диваны аккордион» название формируется «Диван аккордион Лион»;

У inmyroom сделано не так, у них само название товара в Н1 такое, но для листинга «бежевые диваны» реализация лучше, чем у hoff как по мне.

На скринах я лишь показал, как это должно выглядеть. Можно сделать выборочно для нескольких листингов и если все ок, размножить уже на весь сайт.

Что в итоге: улучшаем текстовую релевантность и как следствие ранжирование.

9. Скорректировать вывод количество товаров в листинге

Проверяем сколько товаров выводятся в нашем листинге по сравнению с конкурентами. Ведь может быть ситуация, когда на проекте в 1,5 — 2 раза меньше или больше товаров.

Пример для запроса «купить диван аккордеон»:

  • https://www. divano. ru/catalog/pryamye-divany/divan-krovat/filter/transformation-akkordeon/ — 30 товаров;
  • https://divany-akkordeon. ru/katalog — 45 товаров;
  • https://hoff. ru/catalog/gostinaya/divany/pryamye/? mekhanizm_transformatsii=akkordeon — 28 товаров;
  • https://www. askona. ru/divany/akkordeon/ — 17 товаров;
  • https://zvet. ru/catalog/akkordeon/ — 60 товаров;

Поэтому следует проверить нишу, посмотреть и исправить.

Что в итоге: если товаров сильно меньше, чем в среднем по ТОПу, то текстовая релевантность может быть недостаточной для страницы для хорошего ранжирования, если больше, то может быть переспам.

10. Проверить названия карточек товаров

Тоже часто встречаемая ошибка — не самые лучшие названия товаров. Вот простой пример в одном из популярных мебельных магазинов:

Далее проверяем wordstat:

видим, что название «компьютерный стол» наиболее частотное чем текущий вариант.

Смотрим, анализируем и исправляем.

ВАЖНО! Ничего не меняем в случае, если это сделано специально для ранжирования по менее популярным словоформам.

Что в итоге: улучшаем текстовую релевантность и ранжирование по более частотным словоформам.

11. Проверить наличие страниц в индексе поисковых систем

Это тоже необходимо периодически проверять, т. к. какая-то часть страниц со спросом может быть не в индексе поисковых систем.

Какой порядок работы:

  1. Парсим наш проект;
  2. Берем страницы с поисковым спросом (листинги / инфостатьи / КТ и т. д);
  3. Проверяем на индексацию в Yandex & Google (сервисы: arsenkin, pr-cy, rush-analytics, pixelplus и т. д);
  4. Сравниваем результат;

Скорее всего в Яндексе часть страниц будет со статусом:

  • Малоценная или маловостребованная страница;

в Google часть страниц будет со статусом:

  • Обнаружена, не проиндексирована;
  • Страница просканирована, но пока не проиндексирована в Google;

Далее необходимо проанализировать страницы и понять почему они не индексируются и принять меры.

Дополнительно можем построить простую сводную таблицу (со срезом типа страниц и статусом индексирования) с выгрузкой из Яндекс вебмастера.

Пример для наглядности:

Что в итоге: загоняем страницы в индекс и сразу получаем трафик.

12. Обновлять информационные статьи

Есть алгоритм Google Freshness, который значительно влияет на ранжирование информационных статей. Поэтому тактика один раз написал статью и забыл давно не работает.

При этом, даже если не брать в расчет факторы ранжирования, CTR на выдаче также может со временем снижаться.

Пример:

На момент написания статьи 15.04.2024 «Российская газета» в ТОП-1, но как видно в сниппете дата публикации статьи 04.02.2016 года.

Захочет ли пользователь читать контент 8-летней давности? Вопрос…

Поэтому, чтобы статья постоянно ранжировалась и собирала трафик периодически ее необходимо обновлять. Точного временного критерия нет, но для себя беру ориентир 6 месяцев с даты публикации статьи.

Какой порядок работы:

1. создаем отдельный Google docs со следующими столбцами:

-Названия статей;

-URL;

-СЯ статьи;

-Дата первой публикации;

-Дата обновления — здесь настраиваем формулу, которая будет прибавлять 6 месяцев с даты первой публикации;

2. Как время обновления статей наступает берем в работу;

3. Пересобираем выдачу в ТОП-10 обоих поисковых систем;

4. Считаем среднюю видимость страниц в ТОПе;

5. Берем 5 лучших статей;

6. Анализируем структуру статей (заголовки Н2 – Н6) т. к. за этот период могли появиться новые статьи, которых раньше не было;

7. Модерируем новые заголовки Н2 – Н6, добавляем себе если они подходят и пишем контент;

8. Смотрим сервисы Яндекс вебмастер и Google Search Console по анализируемым статьям, изучаем СЯ, по которым были показы / клики – если релевантное добавляем в статью новые заголовки Н2 – Н6 и раскрываем тему еще шире;

Что в итоге: повышаем CTR на выдаче и улучшаем ранжирование в поиске.

13. Проанализировать страницы входа

Никто не застрахован от ошибок, поэтому имеет смысл иногда проверять страницы входа на предмет большого процента отказов и последовательно их прорабатывать.

Какой порядок работы:

  1. Идем в метрику;
  2. Открывает отчет «Страница входа»;
  3. Меняем группировку таким образом, чтобы в таблице остались именно конечные URL без вложенности;
  4. Выгружаем в excel;
  5. Находим важные страницы и анализируем их;
  6. Прорабатываем;

Что в итоге: исправляем возможные ошибки, улучшаем ранжирование и получаем трафик.

14. Проанализировать страницы выхода

Пункт похож на предыдущий, только разница в том, что вместо отчета «Страницы входа» мы анализируем отчет «Страницы выхода» с тем же порядком работы.

Что в итоге: исправляем возможные ошибки, улучшаем ранжирование и получаем трафик.

15. Проработать запросы близкие к ТОПу

Идея уже понятна из названия заголовка, для этого:

  1. Выгружаем отчет с позициями;
  2. Ищем страницы (кластеры) с позициями 11-20;
  3. Анализируем страницы;
  4. Оптимизируемся;

Что в итоге: относительно быстро улучшаем ранжирование страниц и получаем трафик.

16. Проработать запросы, которые приводят конверсиям

Тоже наверняка не самая популярная задача среди SEO-специалистов. Нужно понимать, что простые позиции и трафик вряд ли нужен владельцу бизнеса, ему нужна прибыль.

Поэтому давайте напрямую поработаем на бизнес, для этого:

  1. Идем в метрику;
  2. Открываем страницу с целями;
  3. Указываем важные цели как «Избранные»;
  4. Идем в отчет «Поисковые запросы»;
  5. В метриках выбираем «Конверсия в избранные цели»;
  6. Анализируем запросы;
  7. Оптимизируем посадочные страницы под конверсионные запросы если они просели;

Пример:

Что в итоге: напрямую работаем с конверсиями, быстро влияем на прибыль.

А теперь вопрос: нашли ли вы что-нибудь полезное? Напишите в комментариях 👇

Вторую часть статьи опубликую через неделю.

0
3 комментария
В А

Да что тут полезного может быть? Работа ради работы. Ну и что что ты занял первые места, ну и что что трафик вырос? Сейчас люди покупают исключительно на маркетплейсах, валберисы, озоны... сколько стульев ты продашь с сайта? 2 в месяц? А с маркетплейса 300... Покупателям удобно не регистрироваться каждый раз, не вводить данные адреса, карточки, телефоны, надеяться, что тебя тупо не кинут. Доставка вообще не пойми когда и как... Это прошлый век. Сейчас сайт вообще не нужен для хороших продаж. Эпоха сео специалистов подошла к концу.

Ответить
Развернуть ветку
Илья Абаев (SEO)
Автор

1. Ну судя по такой логике все ИМ должны были уже закрыться, но по какой-то причине до сих живы и работают;
2. Не вся аудитория используют маркетплейсы;
3. Специфичных товаров на маркетплейсах может не быть вовсе;
4. В статье разве речь только о ИМ? Кроме ИМ так-то есть сайты услуг, инфопорталы, агрегаторы и другие типы сайтов;
5. SEO уже 10 лет как хоронят, однако до сих продолжает жить;
6. Для эффективного бизнеса нужно присутствие во всех возможных каналах;
7. А с учетом AI те же разработчики пойдут на биржу труда лет через 10;

Ответить
Развернуть ветку
Чайка О.

Да ладно. Всё инструментальное я покупаю во Всеинструментах, сложные бытовые приборы — в специализированных магазинах вроде ДНС. До покупки ползаю по сайтам магазинов.
Кое-что могла бы покупать не на Озоне, но часто сами производители, имея сайты и даже как бы магазины, не готовы к розничным продажам.

Ответить
Развернуть ветку
0 комментариев
Раскрывать всегда