Как восстановить позиции после Google Update: разбор реального кейса зарубежного финтех проекта
Последние 3 недели наблюдается хороший рост финтех проекта, который я веду в качестве in-hose специалиста — сайт почти вернулся на доапдейтные позиции, а в некоторых ГЕО даже улучшился. А это значит, что пришло время сами знаете каких историй. В этой этой статье я расскажу что и как я делал, чтобы реанимировать сайт после мартовского Google Update.
К слову, это не первый апдейт, который рушит проект, над которым я усердно работаю последние 4 года. Первый Google апдейт застал меня в далеком 2021, когда я был еще не очень уверенным в себе мидлом. Тогда было абсолютно непонятно, что делать, и я занял выжидательную позицию. И это, кстати, дало свои плоды и помогло не наделать фигни по незнанию — после очередного апдейта сайт отрос обратно. В текущем моменте оставить как есть — значит расписаться в собственной несостоятельности как специалиста, а такое нам не надо.
Как нас раскатало
В этом году Google уже успел выпустить 2 апдейта: первый в марте — Core Update* и второй в июне — Spam Update.
* На самом деле в Марте было 2 апдейта, которые шли параллельно — https://status.search.google.com/products/rGHU1u87FJnkP6W2GwMi/history.
Примечательно, что сайт начал терять позиции несколько заранее (примерно за неделю до официального старта апдейта) в обоих случаях. Второе интересное наблюдение — сильнее всего пострадали коммерческие страницы, причем 1 из 2-х кластеров сильнее и на всех основных ГЕО, над которыми я работаю. Это изначально привело меня к мысли, что виноват вовсе не апдейт, а что сайт частично улетел под фильтр. А это, как вы понимаете, всегда крайне печально.
Что мы имели и к чему пришли
Цифры по кластеру в ГЕО US, который пострадал сильнее всего:
Обиднее всего в этой ситуации то, что и ссылочное качественное, и техничка проработана, и тексты по пузомеркам ок и теги ракета. А Google тебя сажает на жопу и на твое место ставит сайты, у которых на странице толком-то ничего и нет.
Что я делал и к чему это привело
Собираем данные
Первое, что необходимо сделать — посмотреть, а кто же стал бенефициаром всего этого беспредела. Для этого вполне подойдет и топвизор, но там есть 2 проблемы:
- Чем больше конкурентов в динамике вы отслеживаете, тем больше денег вы тратите
- Снимки выдачи штука крайне полезная, но не очень наглядная
Поэтому я заморочился и с помощью Python + BQ собрал дашборд в Looker.
После того, как стало понятно, а кто же вырос и кто упал, настало время сбора данных. Я собрал показатели по 20+ параметрам по более чем 20 сайтам. В таблицу включил как тех, кто хорошо вырос, так и тех, кто является сильным конкурентом, но апдейт на нем никак не сказался.
Скорим гипотезы
Второй этап — обработать данные, выдвинуть гипотезы для теста, проскорить и начать тестировать.
В рамках скоринга я выделил следующие, наиболее сильные гипотезы:
- Технические проблемы. Из криминального, что удалось накопать по техничке: разработчики запилили новый раздел исключительно для технических задач, никому о нем не сказали и конечно же не закрыли его от ботов. В итоге до 25% краулингового бюджета сайта уходило на страницы с 404 кодом ответа.
- Высокий % страниц без трафика. Когда-то существовало расхожее мнение, мол генерь страницы под потенциальный спрос и микро-НЧ запросы. Больше страниц — сайт лучше ранжируется, привлекает кучу трафика и т.д. Возможно оно так где-то и работало, но не сейчас. Ваши страницы-пустышки никому не интересны — ни людям, ни ботам. Но зато вы бонусом получаете проблемы с индексацией и регулярным переобходом действительно важных страниц. Сейчас за такие финты можно реально отхватить пессимизацию. Проверено на собственном опыте.
- Фильтр. Ночной кошмар любого специалиста. В данном случае я опасался фильтра за ссылки, а именно за переспам мани-анкорами.
В приоритет не была вынесена достаточно интересная гипотеза, связанная с низким (в сравнении с конкурентами) процентом прямого и брендового трафика. Ее не стали тестить, а просто взяли в работу как задачу. В отношении EEAT факторов — аналогично.
Что в итоге сработало
Невероятно, сеошник восстановил сайт после апдейта используя простой советский…
На данный момент реализованы п.1 и п.2: на стороне разработки закрыли дыру с 404 и удалили кучу страниц без трафика. Помимо этого внедрили несколько новых блоков на страницы (по большей части для улучшения конверсии) и обновили анкорную перелинковку. Задача по ссылкам (обновление disavow и смещение анкорного баланса в сторону безанкора) еще в работе.
Невероятно, но из того, что более-менее коррелирует в плане позитивного эффекта с датами реализации — анокрная перелинковка. У нас есть небольшой блок на сайте, в котором находятся анкорные ссылки на продвигаемые страницы. С этим блоком и раньше проводились работы, но особой отдачи не наблюдалось. Сейчас же расклад такой: где обновили анкоры — сайт подрос, причем очень хорошо, где не обновили — без изменений.
Неожиданно? Очень! Пока что тестирую эту гипотезу на других локалях параллельно с текстовой оптимизацией на основных страницах (нет предела совершенству). На подходе новый disavow, новые безанкорные ссылки и..новый апдейт Google 😂 Очень надеюсь, что нас в него не выстегнет, а подбустит.
Заключение
Из всей этой ситуации я сделал два вывода:
не бывает нерешаемых проблем
сработать может даже та гипотеза, на которую вы делаете минимальную ставку
По традиции, всем топов 🏆
******************************************************************************
Статья подготовлена автором канала SEO PM