{"id":13980,"url":"\/distributions\/13980\/click?bit=1&hash=0621cb7b4c69b9d22c60404c8eb6e6ceec7edd063131a4eabb7a8230f92c1e2c","title":"\u041a\u0443\u043f\u0438\u0442\u044c \u043c\u0430\u0448\u0438\u043d\u0443 \u043d\u0430 \u043c\u0430\u0440\u043a\u0435\u0442\u043f\u043b\u0435\u0439\u0441\u0435 ","buttonText":"\u0420\u0435\u0430\u043b\u044c\u043d\u043e?","imageUuid":"92eb5d88-b112-5822-9ccc-ea36617b70b6"}

SEO-кейс: в 2 раза больше трафика с Google за 6 месяцев

Данные клиента:

  • Сайт авто запчастей.
  • Продвигаем по Украине, позиции снимаем по Киеву
  • Только Google

Как собирали семантическое ядро

Сбор ядра в большинстве случаев происходит под Яндекс, с использованием точной частоты из Директа в Key Collector — это быстро, удобно и можно получить максимально полное ядро.

Но так как клиент из Украины, где заблокирован Яндекс, то нам это не подходило. А сбор точных частот по Google происходит сложнее (нужны "прогретые" Google-аккаунты) и в KeyCollector с этим парсингом регулярно возникают сложности.

Чтобы собрать максимально полное семантическое ядро мы решили к стандартному парсингу добавить небольшую хитрость.

1. Взяли все рубрики клиента, все его основные типы товаров, а также ключи по маркам и моделям, по годам выпуска.

2. Перемножили все это с коммерческими запросами и… с 5-ю крупными городами России, включая Москву.

3. Сняли частоты в Key Collector по РФ (это для нас практически бесплатно). Получилось в районе 10 000 - 15 000 запросов с частотой от 2.

4. С помощью автозамены заменили в запросах все города РФ на украинские.

5. Теперь остается только снять частоты по Google, чтобы убрать нулевки из ядра и сосредоточиться только на тех запросах, что принесут клиенту трафик. Если у вас нет прогретых Google-аккаунтов для парсинга в KeyCollector, это можно сделать за 5 минут в Topvisor, потратив всего несколько сотен рублей.

Как итог — получили объемное ядро, с которым можно работать над сайтом, создавать тегированные рубрики и прокачивать ВЧ.

SEO-аудит

Самая большая и важная работа была сделана при SEO-аудите сайта, который нам дался не просто — пришлось использовать самый мощный компьютер в офисе с 16 гигабайтами ОЗУ + вбивать множество исключений, т.к. там более 2 миллионов страниц.

Как сайт видит Google:

Сначала мы попытались понять структуру сайта. Screaming Frog вылетал на 30% (Больше 400 000 урлов просто не тянул). При этом проект весил 27 Гигабайт:

Стало понятно, что весь сайт мы, скорее всего, не просканируем никогда. А всевозможных дублей, битых ссылок, 404-х картинок там было очень много.

Решили использовать исключения в "Screaming Frog", чтобы сканер не забивал проект уже закрытыми от индексации страницами, а также разделами, которые не были интересны для SEO на момент старта. Также добавили в исключения весь мусор, который удалось обнаружить на ранних этапах и уже закрыли в robots.txt.

Проще говоря — мы попытались загрузить максимум возможных проблем, чтобы передать их программистам. Какие-то, к счастью, имели общие закономерности и были решены относительно быстро, на остальную часть им потребовалось около пары недель — одних только битых ссылок было под 25 000.

Нюансы

У клиента уже была реализована интересная схема — все карточки товаров в основных рубриках были закрыты в noindex + они с помощью rel=canonical ссылались на раздел, в котором находились.

С одной стороны, это сделано оправданно — сами по себе отдельные карточки автомобильных ковриков, чехлов, подкрылков и молдингов редко интересны людям, и запросов по ним не было. Люди искали подборки аксессуаров под свою модель машины, а многие ещё с уточнением её года выпуска.

С другой стороны, такая схема редко где реализуется, да и отдельные карточки добавляют для поисковиков видимость ассортимента + участвуют в перелинковке, прокачивая вес категорий.

Но мы решили не менять эту схему по двум причинам:

1) Эта схема уже работала и приносила неплохой трафик.

2) Самих разделов и подрубрик было много + еще будет создано ОЧЕНЬ много. Только представьте, сколько марок автомобилей существует — сколько у каждой марки моделей и сколько у этой модели вариаций. Да ещё раздробите это по годам выпуска.

К тому же, на сайте было больше 2 млн страниц, из которых 1.6 млн уже на момент аудита были закрыты в noindex — открывать этот ящик Пандоры очень не хотелось.

Что в итоге сделали:

  • Закрыли весь мусор, что не был закрыт.
  • Сделали генерацию мета-тегов и более заметные сниппеты с помощью указания цен (минимальные в разделе) + спецсимволы.
  • Открыли для индексации страницы пагинации (Pagen’ы) — они были закрыты в robots.txt и noindex, оставили только rel=canonical с адресом первой страницы каталога.
  • Вывели товары на основных каталогах. То есть раньше на них отображались только подразделы — в SEO такие каталоги практически не продвигаются. Всегда нужно в основном каталоге выводить все товары из внутренних подкаталогов. Это важно, так как именно на основных каталогах располагаются ВЧ ключи.
  • Убрали одинаковый текст на всех страницах каталогов и стали постепенно, но массово заменять на короткие уникальные, содержащие ключевые слова конкретных рубрик.
  • Ссылочная оптимизация (куда же без неё, да под Google!) — начали ставить статейные ссылки, но аккуратно и в небольшом количестве, точечно подбирая анкоры и страницы акцепторы.

Результаты

За полгода трафик вырос более чем в 2 раза:

И это точно органика:

По позициям тоже все хорошо, они выросли почти в 2 раза + неплохой рост по некоторым ВЧ:

Если вы хотите достигать таких же или больших результатов в продвижении своего сайта, рекомендую регулярно смотреть видео на канале "Продвижение сайтов без воды". Там собрано уже более 300 бесплатных уроков от руководителя нашей команды, Андрея Буйлова. Там же, в комментариях, вы можете бесплатно получить ответы на свои вопросы.

Если у вас есть задачи по продвижению вашего проекта пишите нам через сайт «Муравейника», с удовольствием поможем!

0
Комментарии
0 комментариев
null