Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Увеличить трафик на сайте из поисковой выдачи без ботов и спама возможно, если заниматься SEO с умом, а не брать стандартные шаблоны. И первым делом, надо подглядеть, как все устроено у лидеров ниши (тот самый зыринг и тыринг). С вами команда Seobot. Расскажем, как мы проводим анализ конкурентов для SEO.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Содержание

Чтобы обогнать лучших, сначала научимся у них

Для эффективного продвижения проекта в Яндексе и Google необходимо изучить:

  • Чем живет и как развивается изучаемая тематическая ниша.
  • Какие сайты являются нашими прямыми конкурентами-лидерами.
  • Почему эти сайты считаются наиболее успешными и популярными у аудитории.

Поэтому изучение конкурентов в SEO — важная и обязательная часть аналитики сайта. Оно позволяет понять, какую стратегию выбрали конкуренты для SEO-продвижения своих сайтов и какие эффективные SEO-решения применяют.

При анализе конкурентов выделяем 5 основных этапов:

  • Подбор ключевых слов.
  • Определение конкурентов-лидеров.
  • Анализ контента.
  • Оценка технических параметров сайта.
  • Изучение ссылочного профиля.

Разберем каждый этап детально.

Подсматриваем ключевые слова у конкурентов

Запросы сайта определяем по следующему алгоритму:

1. Собираем ключи в ручном режиме в сервисе «Яндекс Вордстат»

Классический способ — собрать «верхушки» запросов или, как их еще называют, запросы «первого приближения», — это самые высокочастотные ключи. Достаточно собрать 15–20 вариантов.

<b>2. Собираем ключи с помощью сервиса Keys.so</b>
2. Собираем ключи с помощью сервиса Keys.so

Необходимо вбить наименование нашего исследуемого домена в поисковую строку главной страницы Keys. so и дождаться выдачи результатов. Выбирать поисковую систему на этом этапе не нужно, это можно сделать потом, при анализе выдачи.

Для общего сбора запросов мы всегда выбираем Москву в сервисах Яндекс и Google. Как и «Вордстат», Keys. so выдает запросы с базовой (общей) частотой, поэтому для анализа мы пользуемся базовой частотой.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Сервис достаточно быстро показывает результат:

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Отсортировав выдачу, можно определить самые популярные запросы.

Также, Keys. so показывает конкурентов нашего сайта и популярные страницы — это пригодится в дальнейшем, как вспомогательная информация в определении SEO-стратегии нашего проекта и конкурентных.

3. Объединяем собранные ключи в Google Sheets.

Достаточно 15–20 частотных запросов. Для этого отсортируем по их по убыванию и заберем самые релевантные — их мы копируем и переносим в подготовленную таблицу Google Sheets.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Полученные запросы будем использовать в дальнейшей работе, чтобы определить конкурентов в топе.

Надо знать сильные и слабые места противника

Чтобы выявить лидеров в нише, используем инструменты Ahrefs, Semrush, Similarweb, Arsenkin Tools, Keys. so и другие.

Достаточно определить 3–5 конкурентов, чтобы не зарыться в анализ и не уйти от главной задачи — найти интересные SEO-решения, которые привлекут органический трафик на наш сайт.

Основные критерии выбора конкурентов-лидеров для анализа:

  • Конкуренты по запросам в топ-10 и топ-50.
  • Конкуренты по размеру органического трафика.
  • Косвенные признаки (сервис Keys. so) — количество страниц, видимость ключевых слов, по охвату.

Полученные запросы вносим в сервис Arsenkin Tools.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Этот инструмент помогает быстро выгрузить топ-10 сайтов по заданным ключам в поисковых системах Яндекс и Google. Начинаем собирать конкурентов по запросам и заносить их в таблицу Google Sheets.

Обязательно нужно «почистить» результат выдачи:

  • агрегаторы;
  • маркетплейсы;
  • каталоги;
  • сервисы поисковых систем («Карты», «Маркет» и т. д.);
  • конкуренты, известные благодаря своему бренду.

Например, сайт «М. Видео» и схожих компаний заходят в ТОП не из-за привлекательного оффера в сниппете, а благодаря узнаваемости бренда.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Далее поочередно вбиваем 10–15 ключевых слов из подготовленной таблицы в поисковые системы Google и Яндекс и смотрим, что выдают поисковики в топ-10. Если по какой-то причине сервис не «увидел» конкурента, то вносим этого конкурента в нашу таблицу.

Повторяя эти действия, мы постепенно «выследим» и соберем 10–15 конкурентов-лидеров. Потом занесем весь список конкурентов в сервис Keys. so на вкладку «Пакетный анализ». Он нам выдаст следующую таблицу:

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Выгрузив отчет в таблицу, можно отсортировать данные и увидеть, кто конкурент нашего сайта по ключевым словам в топ-10 и топ-50.

Для удобства обработки переносим данные из выгруженной таблицы в подготовленную ранее таблицу Google Sheets. Получается структурированный массив данных, из которого выделяем конкурентов-лидеров по совпадению ключей в топах и косвенным признакам (количество страниц, по видимости, по охвату):

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Поясним часть косвенных признаков.

1. Признак «по видимости»

Какое место в рейтинге сайтов, отсортированных по видимости, занимает этот домен. Чем меньше значение, тем выше сайт в списке и, чаще всего, тем больше у него поискового трафика. Подробнее, что такое видимость, читайте по ссылке.

2. Признак «по охвату»

Какое место занимает домен в рейтинге сайтов, отсортированных по значению «В топ 50» в порядке убывания. Чем меньше число, тем по большему количеству запросов сайт отображается в выдаче на позициях от 1 до 50.

Далее проверяем органический трафик по отобранным конкурентам. Для этого используем сервис Similarweb. Так как мы пользуемся бесплатной версией, вбивать конкурентов для проверки необходимо по одному.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Сервис выдает следующую информацию, где нас интересует цифра трафика за месяц:

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Вносим полученные данные по трафику в таблицу. Должен получиться следующий массив данных, который отсортировываем по убыванию показателей:

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Итогом наших исследований стали три конкурента-лидера по совпадению ключей в топах и по трафику. Эти данные мы заносим в сводный документ, который готовим для анализа конкурентов:

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Мы провели определение конкурентов-лидеров нашей ниши, воспользовавшись сервисами и ручной выдачей из «Вордстата». Дополнительно проверили выдачу по запросам топ-10 в поисковых системах Яндекс и Google.

Статистический штурм: возьмем у конкурентов самое лучшее

Перечисленные выше этапы помогли нам собрать необходимые данные для дальнейшей работы с исследуемым сайтом. Мы перешли к следующему этапу анализа конкурентов — анализу контента. Как пример, разберем анализ контента одной страницы. В дальнейшем этот метод можно применить для других анализируемых страниц.

Используем сервис Overlead. me. В нем, при множестве других инструментов, доступен «Текстовый анализатор», позволяющий:

  • Сравнивать текст нашего сайта (конкретной страницы) и его слова по техническим показателям с показателями конкурентов в топе.
  • Находить отличия значений нашего сайта от эталонных показателей в топе.

Для работы нам потребуется:

  • Собрать 10–15 ключевых слов для главной страницы сайта или любой другой анализируемой страницы.
  • Внести собранные слова в инструмент «Выгрузка топ-10 сайтов» сервиса Arsenkin Tools.
  • Провести чистку результата выдачи: убрать нерелевантные домены-конкуренты, исключить агрегаторы, маркетплейсы, нецелевые сайты и другой «мусор».

Регистрируемся в сервисе Overlead. me, выбираем тарифный план и заходим в инструмент «Текстовый анализатор».

На странице этого инструмента можно создавать группы проекта и объединять текстовые анализы конкретных проектов в одной группе.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Чтобы запустить новый тестовый анализ, необходимо использовать кнопку «Новый анализ». Появится диалоговое окно, куда необходимо:

  • Внести название проекта.
  • Выбрать ранее созданную группу, если необходимо.
  • Внести ранее собранные ключи — до 20.
  • Внести ранее собранные и «почищенные» конкуренты-страницы.
  • Внести страницы-исключения, которые, по вашему мнению, не должны участвовать в анализе.
Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Настраиваем далее:

  • В поле «Сравнить данные» выбираем «Адрес страницы», если хотим сравнить с контентом нашей существующей страницы.
  • Вносим URL страницы. Если нет, то нажимаем кнопку «Не сравнивать». Также можно внести HTML-код страницы либо загрузить документ Word с текстом.
  • Выбираем регион. По умолчанию Москву.
  • Для анализа оставляем «Только мои URL». Если выбрать «Автоматически», то сервис сам будет подбирать URL конкурентов (их количество может быть запредельным, и анализ затянется надолго).
  • В «Области анализа» выбираем «Контент».
  • Нажимаем «Создать» и ждем результат.
Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Результаты анализа появятся, когда прогресс-бар будет заполнен на 100% и в колонке «Действия» станут доступны документы для скачивания:

  • Текстовый анализ.
  • Техническое задание копирайтеру.

При скачивании документов необходимо выбирать кнопку «Считать медиану». После скачивания начинаем работу с документом «Текстовый анализ».

Сам документ скачивается в формате *xlsx и имеет несколько вкладок: «Ключи», «Монограммы таблица», «LSI таблица», «URL’ы в анализе» и др. Здесь перечислены те вкладки, которые мы в основном используем для подготовки ТЗ.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Документ технического задания на текст мы готовим в Google Docs, образец ТЗ можно посмотреть здесь.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Основные моменты, которые нужно учесть при составлении ТЗ при работе с выгруженными данными текстового анализа:

1. Вкладка «Ключи»

Ключи используем по всему тексту — столбец «Текст». Важно в ТЗ указать количество ключей в «приоритетной части текста».

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

2. Вкладка «Монограммы таблица»

Из этой части таблицы берем вхождения слов — также для добавления по всему тексту. Обращаем внимание на количество в приоритетной части текста.

Вхождения монограмм, которые идентичны ключам либо входят в состав ключей, необходимо сминусовать. Иначе будет «задвоение», когда сервис не учитывает ранее использованные вхождения в ключевых словах.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

3. Вкладка «LSI таблица»

Слова рекомендуется добавлять в указанном количестве, но если задача сложная, то можно добавлять и меньше. Если указано 10, то не требуется добавлять все 10, можно и 5–6.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

4. Вкладка «URL’ы в анализе»

Эта информация необходима копирайтеру для обзора и работы с текстами конкурентов-лидеров.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Структуру текста смотрим с помощью сервиса Arsenkin Tools в инструменте «ТЗ на копирайтинг». Также добавляем собранные запросы, вносим наши отобранные URL’ы и начинаем формировать структуру.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи
Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Собирать структуру текста удобно при помощи раскрывающегося окна «Использовать предложенную структуру». При нажатии на «+» в раскрывающемся окне будет перечислена структура сайтов-конкурентов — оттуда можно забирать заголовки и подзаголовки.

После сбора структуры ее необходимо «подчистить» и подготовить для нашего сайта, перемещая заголовки. Выбираем самую полную структуру, чтобы она включала все заголовки и подзаголовки, которые отсутствуют у нас на сайте и есть у конкурентов-лидеров. Также можно добавить свои наработки.

Текстовый анализ статей конкурентов — важная часть SEO-продвижения. Такой анализ решает следующие задачи:

  • Поиск «свежих» идей для создания своего текста, статей для блога и контент-плана в целом.
  • Узнать, что и как пишут конкуренты, — и сделать лучше!
  • Поиск действительно полезной информации, чтобы привлечь внимание пользователей.

Анализировать нужно все основные виды страниц — главную, страницы категорий, страницы блога и др. На что обратить внимание:

  • Содержание страницы и ее элементы (структура страницы, картинки, фото, видео и др.).
  • Полезность контента для пользователя.
  • Корректность формирования структуры и иерархии заголовков H1–H6.
  • Наличие списков и таблиц, облегчающих восприятие контента.
  • Процент спама/переспама (это важно, чтобы не попасть под санкции поисковых систем).
  • Общее количество и качество статей на сайте.
  • Частота появления новых статей и контента, регулярность обновления.

Итак, документ заполнен — переходим к следующему этапу.

Оценим критическим взглядом технические параметры сайта

Проведение технического аудита сайта — очень важный элемент анализа конкурентов. Его задачи:

  • Находить, фиксировать и исправлять ошибки, мешающие корректной работе сайта.
  • Улучшать поисковую оптимизацию сайта для лучшей индексации и роста позиций в поиске.
  • Повышать безопасность сайта. Проверка на уязвимости и настройка защиты снижают риск потери данных от случайных поломок и хакерских атак.

Мы используем сервис Screaming Frog SEO Spider — это, пожалуй, лучший сервис для технического аудита сайта в своем классе, потому что он:

  • Анализирует ваш сайт и страницы по многим параметрам.
  • Анализирует страницы конкурентных проектов.
  • Проводит пакетный анализ списка URL и многое другое.

Рекомендуем этот сервис для обязательного применения при техническом аудите сайтов для целей SEO. В дополнение у него удобный и понятный интерфейс.

При работе со Screaming Frog SEO Spider мы смотрим, какие ошибки и проблемы обнаружены при парсинге сайта. Чаще всего это:

  • Проблемы с безопасностью (блок Security).
  • Коды ответов сервера (блок Response Codes).
  • Проблемы с URL (блок URL).
  • Проблемы с тегами: Title, Description, H1 и заголовками H1–H6.
  • Проблемы с контентом (блок Content).
  • Проблемы с изображениями (блок Images).
  • Проблема с каноническими адресами (блок Canonicals).
  • Проблемы с пагинацией страниц (блок Pagination).
  • Проблемы с картой сайта sitemap. xml (блок Sitemaps).

Также анализируем:

  • Файл robots. txt.
  • Скорость загрузки основных страниц.
  • Ошибки в «Вебмастере» (коды ответов страниц, страницы в индексе и «мусорные» страницы).

Пора изучить полученные данные «под микроскопом».

Структурируем и анализируем приоритет задач

Все проводимые работы по техническому аудиту обязательно фиксируем в документе «Технический аудит». Пример — здесь.

1. Проблемы с безопасностью (блок Security)

Если говорить о приоритете работ, то блок, связанный с безопасностью, можно отнести к приоритету в 50–60%. Это не первоочередная задача, ей можно заниматься, когда уже проделаны необходимые работы по сайту.

2. Коды ответов сервера (блок Response Codes)

В результатах парсинга отображены статусы и коды статусов всех ссылок — как внутренних, так и внешних. Здесь отображаются следующие данные:

  • Адреса, заблокированные файлом robots. txt. Если в текущий отчет попали важные для продвижения страницы, то необходимо перепроверить файл robots. txt и скорректировать его. Заблокированные с его помощью адреса, скорее всего, не просканированы и не проиндексированы поисковыми роботами.
  • No Response. Это значит, что адрес ресурса не отправляет ответ на HTTP-запрос. Причиной могут быть неправильные адреса, ошибка соединения и прочее.
  • Success 2xx. Запрошенный адрес был получен, принят и успешно обработан.
  • Redirection 3xx. Тут отображаются перенаправления (редиректы) на стороне сервера. Такие ссылки нежелательны: они влияют на скорость загрузки и увеличивают задержку между переходами пользователей.
  • Client Error 4xx. Означает, что есть проблема с запросом. Самым распространенным считается код 404 — «Страница не найдена». Таких страниц на сайте быть не должно: необходимо заменить их на рабочие адреса, удалить с сайта или настроить перенаправление.
  • Server Error 5xx. Серверу не удалось выполнить запрос. Этот отчет может означать, что сервер не справляется с нагрузкой. Необходимо откорректировать нагрузку или же выставить другие настройки для парсинга (сервер не выдерживает слишком большое количество запросов).

Приоритет работ — 80–90%.

3. Проблемы с URL (блок URL)

На этой вкладке содержится информация по ошибкам, допущенным в формировании URL-адресов:

  • Символы, отличные от ASCII.
  • Нижние подчеркивания — они не всегда воспринимаются поисковыми системами как разделители слов, так что лучше использовать дефисы.
  • Прописные — URL чувствительны к регистру, поэтому лучше использовать адреса в нижнем регистре, чтобы избежать дублей.
  • Множественные слэши — адреса должны содержать только одну косую черту, иначе поисковые системы могут посчитать такие ссылки дублями.
  • Повторяющийся путь — признаки некорректной структуры.
  • Пробел — считается небезопасным и может стать причиной разрыва ссылки.
  • Внутренний поиск — URL может быть частью внутреннего поиска на сайте, который поисковые системы рекомендуют блокировать для сканирования и индексирования.
  • Адреса, включающие «?» и «&» — не считаются грубой ошибкой, но рекомендовано ограничить количество этих параметров.
  • Более 115 символов — нечеткое правило, но чем меньше длина у URL, тем лучше.

Приоритет работ — 60–70%.

4. Проблемы с тегами: Title, Description, H1 и заголовками H1–H6

Это разделы текстовой технической оптимизации.

  • Заголовок страниц Title. HTML-элемент, который описывает суть страницы для пользователей и поисковых систем. Один из самых важных тегов в ранжировании, ошибки, допущенные при его формировании, очень сильно влияют на результаты продвижения.
  • Описание страницы Description. HTML-элемент, где более подробно объясняется содержимое страницы.
  • Заголовок H1. Считается самым важным заголовком на странице, он должен максимально точно описывать суть страницы и не дублироваться с Title.

Приоритет работ — 80–90%. Исправление и внедрение Title — 100%.

5. Проблемы с контентом (блок Content)

В текущей вкладке отображаются данные по содержанию URL-адресов:

  • точные дубликаты;
  • частичные дубликаты;
  • страницы с низким содержанием контента;
  • орфографические ошибки;
  • грамматические ошибки.

Приоритет работ — 70–80%.

6. Проблемы с изображениями (блок Images)

В разделе по изображениям — сюда относятся как внутренние, так и внешние изображения, — отображаются типичные ошибки при оптимизации:

  • вес более 100 Кб;
  • отсутствие Alt;
  • длина Alt более 100 символов.

Атрибуты Alt должны указывать релевантный и описательный альтернативный текст об изображении. Для некоторых проектов оптимизация картинок очень важна, она позволяет изображениям появляться в результатах поиска по картинкам в Google.

Слишком большой вес изображений может повлиять на скорость загрузки.

Приоритет работ — 60–70%.

7. Проблема с каноническими адресами (блок Canonicals)

На вкладке отображаются общая информация, связанная с каноническими адресами:

  • Канонизированная страница. Этот отчет не всегда может говорить об ошибках. Необходимо точечно рассматривать страницы индивидуально по каждому проекту.
  • Отсутствует канонический адрес. Если Canonical не указан, то есть шанс, что поисковая система может посчитать канонической совершенно другую страницу. Если так случится, то появятся проблемы с индексаций.
  • Указано несколько ссылок. Ошибка, поскольку на странице должен быть указан только один канонический адрес.

Приоритет — 60–70%.

8. Проблемы с пагинацией страниц (блок Pagination)

В этом разделе можно отловить все ошибки, связанные с пагинацией.

  • Выявляет первые страницы пагинации с тегом rel = «prev», проверяет наличие этого тега во всех 2+ страницах, показывая, что страница не первая.
  • Указывает URL-адрес разбиения на страницы с кодом ответа не 200.
  • Обнаруживает несвязные адреса разбиения на страницы.

Приоритет работ — 70–80%.

9. Проблемы с картой сайта sitemap. xml (блок Sitemaps)

В этом разделе смотрим:

  • всего HTML-страниц (URL) на сайте;
  • HTML-страниц в карте сайта;
  • HTML-страниц не в карте сайта;
  • страницы-сироты и другое.

Приоритет работ — 90–100%.

10. Файл robots. txt

Robots. txt содержит информацию о том, какие разделы нельзя посещать поисковым роботам. Это нужно для того, чтобы в выдачу не попадало лишнее: служебные и временные файлы, формы авторизации и т. п.

В поисковой выдаче должен быть только уникальный контент и элементы, необходимые для корректного отображения страниц (изображения, CSS- и JS-коды).

Если на сайте нет robots. txt, роботы заходят на каждую страницу. Это занимает много времени и уменьшает вероятность того, что все нужные страницы будут проиндексированы корректно.

Приоритет работ — 90–100%.

11. Скорость загрузки основных страниц

Скорость загрузки сайта входит в перечень наиболее важных параметров интернет-ресурса. Этот показатель влияет на его ранжирование в рейтинге поисковой выдачи. От него во многом зависит конверсия продаж.

Приоритет работ — 80–90%.

12. Ошибки в «Вебмастере»

С помощью «Яндекс Вебмастера» необходимо смотреть:

  • Какие страницы находятся в индексе.
  • Какие страницы удалены.
  • «Мусорные» страницы в индексе: с параметрами, непонятными символами в URL и др.

Приоритет работ — 90–100%.

Технический аудит сайта помогает понять его состояние и характер имеющихся ошибок и недоработок — так сказать, понять масштаб катастрофы.

Проведенный с помощью сервиса Screaming Frog техаудит 3+ конкурентов-лидеров даст понимание, где наш сайт находится до начала оптимизации в сравнении с сайтами конкурентов. Следовательно, даже базовые работы по технической оптимизации уже приведут к положительному результату и росту трафика.

Раскрываем секреты чужого ссылочного профиля

Анализ ссылочного профиля конкурентов — важный этап в изучении стратегии продвижения сайта, в том числе стратегии наращивания ссылочной массы. Мы понимаем, какие ссылки используют конкуренты, определяем их сайты-доноры и анкоры ссылок.

В этой статье мы не будем описывать механику подготовки анализа — материал достаточно емкий.

Кратко процесс изучения ссылочного профиля выглядит так:

  • Добавляем исследуемый домен в сервис Ahrefs, инструмент «Анализ ссылочной массы».
  • Анализируем динамику прироста ссылочного, определяем объем получения ссылочного в месяц — все это будет видно на графике.
  • Скачиваем уникальные ссылающиеся домены конкурентов.
  • Выгружаем общее количество ссылок и доменов.
  • Анализируем анкоры ссылок, составляем анкор-лист для своего сайта.
  • Все данные заносим в сводную таблицу.

В результате получаем документ со структурированными выводами о ссылках конкурентов.

Грамотный анализ лидеров ниши — ключ к успеху собственного сайта

Для удобства представили весь процесс наглядно. Скачать и детально изучить визуальную схему «Последовательность действий анализа конкурентов» можно здесь.

Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи

Опираясь на полученную информацию, мы приступаем к реализации стратегического SEO на нашем сайте. Но это уже материал для другой статьи или даже целого кейса.

Наша команда анализирует конкурентов в любой нише, какой бы сложной она ни была. Мы вооружены многолетним опытом и зоркими глазами — от нас не ускользнет ни один ключ! Пишите — проведем аудит конкурентов и расскажем, как обогнать их в поисковой выдаче.

А как вы проводите SEO-анализ конкурентов? Делитесь нестандартными решениями и инструментами в комментариях, обсудим ваши варианты.

88
14 комментариев

Два вопроса:
а) А зачем в топ-30 ещё один сайт, ничем не отличающийся от прочих?
б) Откуда уверенность, что топ - в принципе мерило для чего-то? Ну, торчат там с десяток ребят, у которых сильный бренд плюс накрутки. А вы у них ключи считаете. Яндекс, к примеру, всем даёт шанс квартал поторчать в топ-10, а потом большинство переезжает куда-то сильно ниже - на годы.

1

Ну, как бы анализ конкурентов в топ-10 — попытка оценить, что нравится поиску (и пользователям, хотя это нынче вообще сомнительно), своего рода прослушка черного ящика (типа потрясти коробочку и попытаться понять по грохоту, чё там). Это ни в коем случае не автоматическое копирование "конкурентов" (ещё и отобрать конкурентов нужно с умом), а пища для ума и база для гипотез.
ключи считаетеПубликацию не читала, поэтому могу не понять отсылки. Что касается ключей конкурентов, тут тоже важно не слепое копирование массива и структуры, а анализ для понимания тематики в целом.
*
В этой связи удивляюсь (нет) исполнителям, которые предлагают услуги вроде: анализ конкурентов — 1 день, СЯ — 1 день :)

1

Здравствуйте глубоко уважаемый Виктор!

Спасибо большое Вам за вопрос, сейчас мы дополнительно объясним как правильно выбрать конкурентов.

В статье мы как раз писали, что нужно выбирать сайты конкуренты в ТОПе именно схожие с вами по бизнес модели. Тем самым Вы можете исключить крупные проекты, если проект Вашего клиента таким не является, у нас зачастую попадают проекты, которые могут являться конкурентами крупных проектов.

Также с помощью сервисов Keys.so и Ahrefs вы можете определить давно ли анализируемый конкурент находится в ТОПе.
Keys.so: https://drive.google.com/open?id=1mkJK_KP2DZR_z9cBll-DnkeAnJPrgs7L
Ahrefs: https://drive.google.com/open?id=1L6VmPDDz5s97GRWZ2RFsopqGi_zSIi_o

Тем самым мы отсеем из ТОПа залетных конкурентов.

Накрутки - да бывает что в ТОПе находятся сайты где крутится ПФ, даже если мы добавили данный сайт в свой анализ, то мы его отсеем на следующем этапе, кода будем анализировать почему он там находится, когда будем анализировать детально документы и разделы накрученного проекта, с него просто нечего будет взять и он автоматически ничего нам не даст))). Еще могу добавить, по опыту можно понять какой ресурс является накрученным, а какой нет, но это тонкая грань.

Не совсем согласен с Вами по поводу того что Яндекс дает рас в квартал находится в ТОП выдачи. Если вы имеете в виду многорукого бандита от Яндекса, алгоритм ранжирования "Киров". Рандомизация / Скачки / Колебания позиций в выдаче Яндекса являются нормой. Алгоритм поисковой системы определяет по внутреннему алгоритму претендентов и рандомизированным образом подбрасывает / пессимизирует ряд документов в выдаче, но зачастую это происходит документно и легко это исключить из анализа.

Нормальная статья. Многое для себя подчеркнул. Продолжение будет?

1

Неплохо, но хотелось бы больше конкретных примеров и кейсов по применению описанной методики. Это помогло бы лучше понять, как именно можно использовать эти рекомендации на практике.

1

Спасибо за детальный гид по конкурентному анализу! Тщательный разбор этапов и использование правильных инструментов - залог эффективного SEO-продвижения.

1

Понравился подход авторов - сначала научиться у лидеров, а потом превзойти их. Комплексный анализ сильных и слабых сторон конкурентов действительно помогает выработать грамотную стратегию.

1