SEO для больших сайтов: как выжать максимум из Google Search Console

Технический директор JetOctopus Сергей Безбородов рассказывает как правильно пользоваться графиками из Google Search Console и понять, что конкретно «упало», а что «выросло» на вашем сайте и почему. А также какие бизнес-решения можно и нужно принимать на основании этих данных.

Приветствую! Это моя третья статья на ресурсе, в которой я хочу поделиться с вами важным обновлением нашего продукта для глубокой аналитики больших сайтов.

Сразу скажу: я сторонник позиции, что SEO-продвижение работает, оно прозрачно, понятно, поддается объяснению, анализу. Если вы не любите SEO — вы просто не умеете его готовить :)

Сергей Безбородов, CTO JetOctopus.com, знает как готовить не только SEO :)

В своей предыдущей статье я уже писал про то, как мы пришли к SEO и «2-D Анализу». Мы получили достаточно четкую общую картину, использовав наложение друг на друга двух инструментов исследования сайта — краулинга и анализа логов за последние 6 месяцев. Подробнее о том почему нужно собирать логи, и как это влияет на точность диагностики проблем вашего сайта можно прочитать в мой статье «Думай как Google: что мы узнали о поведении поискового бота Google спустя 6 млрд лог-строк».

Теперь мы интегрировали к этим данным те данные, которые собирает Google Search Console и получили уже не 2-D, а 3-D анализ. И это позволило нам не просто посмотреть общую динамику выдачи и переходов из поисковика, а понять, какие именно наши запросы сейчас пользуются популярностью, а какие упали и почему.

Это значит, что если бы у нас, к примеру, был интернет магазин, то мы смогли бы загрузить свой склад товарами, которые прямо сейчас хотят покупать люди. А непопулярные товары не завозить вовсе. Ну а в случае с вакансиями мы узнали, страницы каких именно вакансий сейчас требуют нашего пристального внимания, а какие можно пока не трогать.

Как работает 3-D анализ

Я бы свел 3-D анализ к простой цепочке:

  1. Логи говорят о том, на какие страницы ходит бот, какие знает, а на какие не ходит.

  2. Краулинг дает ответ на вопрос: «Почему ходит и почему не ходит, и главное, что сделать, чтобы бот дошел до нужных страниц?»

  3. Google Search Console финализирует всю эту картину, говоря о том, как это в конечном счете отрабатывает в выдаче.

Ну а выдача влияет на продажи, ради которых мы все собрались.

Теперь, имея 3-D картину мы можем сделать эксперимент, и сразу увидеть как он сработал. Например, когда мы оптимизировали популярные страницы, то увидели что у нас не просто увеличились показы, а что произошло это именно за счет этих новых страниц. Как результат — краулинговый бюджет высвобождается и начинает тратится на то, что нужно и не тратится на то, что не нужно. Это увеличивает количество активных URL и дает рост кликам.

Как мы обрабатываем данные Google

Google Search Console — это специальный инструмент разработанный Google, который позволяет анализировать и контролировать то, как наш сайт представлен в поисковике Google.

Этот инструмент известен многим веб-мастерам, и действительно дает неплохую общую картину о том, как и кто взаимодействует с вашим сайтом. Главный отчетный график консоли дает нам понимание сколько показов мы получили за отчетный период, сколько кликов и какой был CTR.

Однако, данные из Google Search Console не дают нам ответ на вопрос «Почему происходит именно так, а не иначе?». Цифры сами по себе — это не аналитика, а статистика. Аналитика же дает причинно-следственную связь. Мы можем проследить эту связь, используя данные из нескольких источников.

Раздел для самых умных и выносливых

Давайте теперь вместе разберемся как это выглядит в красивых графиках и показателях на примере нашего сайта hotwork.ru. Мы используем скриншоты из собственного сервиса, куда мы интегрировали API Google Search Console.

Screenshot из JetOctopus.com

На этом графике мы явно видим, как резкими пиками возрастает у пользователей интерес к поиску работы по понедельникам и как он почти в два раза падает к выходным.

Какой мы можем сделать из этого вывод? Как минимум, мы понимаем специфику бизнеса и не паникуем в период с четверга по воскресенье, когда график «Доход» падает на 30-40%.

Также это значит, что проведение специальных мероприятий или рекламных кампаний нам стоит планировать на понедельник-вторник, когда эти материалы увидит максимальное количество целевой аудитории.

Devices

Это важный график, которым также не стоит пренебрегать. Вот смотрите, на графике ниже мы видим примерно одинаковое количество показов на компьютерах и мобильных телефонах.

Screenshot из JetOctopus.com

Но при этом в разделе «Клики» (Clicks) видно, что количество кликов с мобильных устройств в несколько раз выше.

Screenshot из JetOctopus.com

С компьютеров пользователи совершают значительно меньше кликов — всего 13,3%, хотя аудитория у компьютеров и телефонов почти одинаковая — 48,2% и 49,4%.

Screenshot из JetOctopus.com

Какой мы можем сделать из этого вывод? Из этого следует, что приоритет в первую очередь нужно отдавать мобильной версии сайта. Любые посадочные страницы и обновления мы продумываем сначала для мобильной версии, а потом уже для десктопных.

А вот если бы у нас было такое же распределение кликов, но при этом мобильная версия сайта оставляла желать лучшего, то мы бы сделали доработку этой мобильной версии приоритетом номер один и получали еще больше прибыли с мобильных устройств.

Количество кликов и ранжирования по позициям

Этот график наглядно демонстрирует, как сильно пользователи готовы углубляться в поисковую выдачу ради информации по вашей тематике. Есть такие тематики, где пользователи не заглядывают дальше второй позиции, например информационные запросы. В случае с поиском вакансий на нашем сайте, мы можем наблюдать так называемый «эффект длинного хвоста», когда трафик нам приносит даже вторая страница выдачи.

Screenshot из JetOctopus.com

Какой мы можем сделать из этого вывод? В ситуации с «длинным хвостом» можно принять следующее стратегическое решение — запросы из Топ-10 необходимо поднять до Топ 1-3, где сосредоточен весь трафик. Второй вариант, который может оказаться даже более эффективным — заняться запросами из Топ-30 и поднять их в Топ-10.

Синий график справа показывает суммарное количество уникальных связок «Страница» и «Запрос». Нет смысла использовать отдельно страницы и отдельно запросы, потому что одному запросу может соответствовать более одной страницы сайта, как и одна страница может отвечать более чем на один запрос. Фактически, это весь объем ранжирования, который мы занимаем в поиске Google.

Запросы и клики по правилу Парето

Этот график мой самый любимый. Работает он следующим образом — мы берем все клики за период и высчитываем, сколько кликов составляет 80%. Затем мы определяем какое количество топ-запросов нам дают эти 80%. В случае с сайтом hotwork.ru мы видим, что 80% кликов нам дают только 5% запросов.

В то же время есть сайты, где эти показатели распределены равномерно, например, 80% кликов приносят 70% запросов.

Screenshot из JetOctopus.com

Какой мы можем сделать из этого вывод? У вас может быть сайт на миллион страниц, а основной трафик приносит всего тысяча страниц. Понимать реальную картину критически важно для того, чтоб правильно распределять приоритеты задач. Если у вас аналогичная ситуация, ваш seo-специалист должен помнить эти страницы наизусть и следить за ними. А в долгосрочной перспективе нужно работать над тем, чтобы как можно больше страниц давали трафик.

А вот если у вас обратный случай, когда трафик более-менее равномерно размазан по всем страницам, это дает вам чуть больше спокойствия. Однако теперь следует стремиться к тому, чтобы максимально увеличить количество страниц, попадающих в Топ-10.

Impact

В этом разделе мы накладываем данные консоли на краулинговые данные.

Хочу обратить внимание на график, посвященный активным URL страниц, которые приносят нам основной трафик. На нашем графике вы видите, что значительную часть трафика нам приносят всего 170 страниц.

Screenshot из JetOctopus.com

Какой мы можем сделать из этого вывод? Из этого следует, что нам стоит в первую очередь уделить внимание этим страницам и попробовать выжать из них максимум. А также проанализировать их, чтобы понять почему они так успешно отрабатывают в выдаче, и распространить этот успешный опыт на другие страницы.

Keywords

Я всегда говорю, что ключевые слова находятся в динамике: сегодня популярно одно, завтра другое. Для того, чтобы делать аналитику, а не статистику, нужно смотреть ключевые слова только сравнивая один период с другим.

Screenshot из JetOctopus.com

Канибализация

Бывают такие ситуации, когда на один запрос отвечает несколько страниц, и они начинают соревноваться друг с другом.

Тут же нужно отметить, что страницы не всегда соревнуются друг с другом за запрос. Так например, если запросу «купить телефон» отвечают одновременно две страницы вашего сайта, но одна отвечает на запрос «купить телефон в Москве», а вторая «купить телефон в Ставрополе», то эти страницы не поглощают друг друга.

Однако очень часто мы встречаемся с неоднозначными ситуациями, когда по одному запросу ранжируются сразу несколько страниц. На нашем примере видно, как по запросу «няня на лето на дачу» для региона «Москва» у нас соревнуются 4 страницы.

Screenshot из JetOctopus.com

Какой мы можем сделать из этого вывод? Главная проблема подобной канибализации заключается в том, что наши страницы “соревнуются” не только с конкурентами но еще и сами с собой. Во многих случаях правильнее поступить в духе естественного отбора и оставить одну, самую «сильную» страницу, а остальные либо переадресовать на нее, либо закрыть от индексации вовсе.

Winners & Losers

Помните мы говорили, что ключевые слова находятся в динамике? Эту динамику важно отслеживать. С точки зрения аналитики очень важно знать, какие страницы получили наибольшее количество показов (winners), по сравнению с предыдущим периодом, и те, которые упали в позициях (losers) соответственно. На графике ниже вы можете посмотреть вакансии-победители и вакансии-проигравшие для нашего сайта.

Screenshot из JetOctopus.com
Screenshot из JetOctopus.com

Какой мы можем сделать из этого вывод? Страницы winners — это личные тренды вашего сайта, страницы, популярные прямо сейчас. Если у вас интернет-магазин, то исходя из этих данных вы можете даже формировать складские запасы.

Crawling & Google Search Console

На стыке этих двух инструментов анализа открывается безграничное поле для экспериментов. Данные этих инструментов можно сравнивать и вручную, однако я наглядно покажу как они взаимодействуют друг с другом в интерфейсе JetOctopus. Например, мы можем вывести перелинковку, количество ссылок и уникальных анкоров и сравниваем с тем, по какому количеству запросов они ранжируются, какое количество показов получают, на какой позиции находятся. В примере ниже мы отсортировали данные по количеству показов (Impressions).

Screenshot из JetOctopus.com

Какой мы можем сделать из этого вывод? Из этого скрина мы видим высокочастотные запросы, который находятся на второй странице выдачи. Имея большое количество показов, кликов мы получаем очень мало. Здесь мы видим большой потенциал для роста, если мы добавим внутренние ссылки. Пока их тут не больше 10 на странице, что крайне мало.

А где «Яндекс»?

К сожалению, API Яндекс-Вебмастера позволяет получить данные только по топ-500 поисковых запросов, и аналитику на таких данных особо не построишь. Пользуясь случаем, передаем привет представителям Яндекса: «Друзья, сделайте нормально API по кейвордам, парсить станут на порядок меньше».

Как аналитика влияет на деньги?

Представим, что у нас большой сайт на 100 000 страниц. При этом, мы знаем, что трафик нам приносит только 7000-10 000 страниц. Как быть?

  • Первым делом мы собираем логи, чтобы понять, на каких страницах был поисковой бот.
  • Затем мы краулим сайт, чтобы понять, какие страницы бот не посетил и что сделать, чтобы он до них дошел.
  • После этого, мы загружаем данные о запросах и страницах из Google Search Console за период от 100 дней до последних 12 месяцев.
  • И начинаем эксперименты и оптимизацию.

Резюмируя все вышесказанное, я бы сказал, что даже если конверсия остается прежней, но у нас было, скажем, 100 активных страниц, а стало 150, то продаж станет больше. Таким образом можно даже высчитать стоимость привлечения клиента с помощью SEO.

Двигаясь дальше

Чем больше мы работаем с крупными проектами, тем больше я убеждаюсь, что для того чтобы не строить нереалистичные гипотезы, искать причинно-следственную связь там, где ее не может быть априори — нужны данные, и их правильная обработка.

Чем больше мы получаем данных, тем больше у нас ответов на вопросы. Но в тоже время сложность работы с ними возрастает многократно.

Нет смысла выбирать лучший инструмент для анализа, ведь главные возможности открываются именно в кросс-аналитике, когда вы видите:

  • краул (структура сайта);
  • логи (визиты бота);
  • Google Search Console (показы и клики в выдаче);
  • Google Analytics (отказы, время на странице, пользовательские действия, конверсии);
  • ahrefs/majestic (обратные ссылки );
  • ваши собственные данные (продажи, доход).

Все это позволяет видеть корреляции и взаимосвязи факторов между собой, чтобы в конечном счете техническое SEO было как можно точнее нацелено на максимализацию дохода, а не просто на рост позиций.

0
23 комментария
Написать комментарий...
Сергей Яновский (Пані ЯновськаTM)

Отличная статья и инструмент, успел затестить, мне понравилось. Надо порекомендовать данный инструмент пользователям на справочном форуме для веб-мастеров Google, которые приходят с вопросами: "Почему мой сайт упал в поиске ?". =)

Ответить
Развернуть ветку
Nastya Petrenko

Приятно удивлена визуализацией отчетов! Удобно получить данные в наглядных графиках, а не в сыром списке как в GSC - сразу видно эффективность кейвордов, легко отследить где теряется СTR.
У меня вопрос: вы сказали, что "...ключевые слова находятся в динамике: сегодня популярно одно, завтра другое. Для того, чтобы делать аналитику, а не статистику, нужно смотреть ключевые слова только сравнивая один период с другим", можно ли в jetoctopus сравнить отчеты по конкретным периодам?

Ответить
Развернуть ветку
Serge Bezborodov
Автор

Nastya, спасибо за комментарий. Да, даже в beta мы вылили возможность выбирать период, за который вы смотрите динамику по выбранным показателям. 7 дней, месяц, 6 месяцев, год. Группировать данные можно также по-разному: подневно, понедельно, помесячно. В итоге вы видите сравнение периодов в одном графике и отслеживаете показатели в динамике. Вот период 3 месяца с понедельной группировкой.

Ответить
Развернуть ветку
Mia Melnik

По описанию отличная интеграция. Давно существовала проблема ручного сведения данных, где нужно было устианавливать специальный патч в гугл таблички для выгрузки данных из консоли. А потом вручную это "склеивать" с данными из краулера, что занимало тонну времени.

Такое решение может сэкономить время и нервы в сотни раз. Иду тестить бету :)

Ответить
Развернуть ветку
Alla Rutik

Статья супер и мне в целом очень нравится всё, что рябята делают!
JetOctopus однозначно в топе моих SEO инструментов. Уже по полной тестирую их интеграцию с Google Search Console и все, кто еще не пробовал, то обязательно сделайте это - будете в восторге!
Максимум эффекта и минимум времени :)

Ответить
Развернуть ветку
Сергей Давлятов

Спасибо за статью.!
Ждем 4D)

Ответить
Развернуть ветку
Serge Bezborodov
Автор

Спасибо, Сергей. Надеемся и инструмент вам понравится не меньше чем статья.

Ответить
Развернуть ветку
Andrii Sheshunov

Хорошая статья!

Ответить
Развернуть ветку
Serge Bezborodov
Автор

Спасибо, Andrii. Теперь проверьте на деле, пользуйтесь бесплатным тестом.

Ответить
Развернуть ветку
Serge Bezborodov
Автор

здравствуйте!
1. из краула сайта мы понимаем сколько всего на нем страниц - M, из логов, например за месяц, мы видим сколько уникальных страниц посетил бот X.
Из M вычитаем X = получаем страницы где не было бота

теперь касаемо самой темы статьи, tl/dr: в ней описывается по данные из инструмента google search console, в которой вы можете видеть инфу по своему сайту (верифицированному)
2. "receivieng impressions" - сколько раз страница показалась в выдаче гугла по запросу, "receiving clicks" - сколько раз по ней кликнули (т.е. совершили переходов их serp)
3. клики из serp
4. канибализация - это когда по одному запросу ранжируется несколько ваших страниц и они конкурируют между собой, это касается в первую очередь не гео запросов.
5. это распределение кликов по вашему сайту из выдачи гугла, т.е. переходов.

Ответить
Развернуть ветку
Константин Солодянников

Выглядит космически.
А такие данные реально вытащить и собрать на коленке в Дата Студио?

Ответить
Развернуть ветку
Serge Bezborodov
Автор

да, мне попадалось в твиттере ктото выкладывал такую интеграцию, там по идее не так сложно.
Оно дает общее представление, но когда вы захотите углубиться - видите какую-то аномалию, хотите кликнуть и посмотреть что там за урлы, запросы - уже не получится и придется руками лезть в базу

Ответить
Развернуть ветку
Константин Солодянников

для моих целей на первом этапе более чем достаточно, спасибо

Ответить
Развернуть ветку
Георгий Шилов
Ответить
Развернуть ветку
Igor Sochenko

Вы говорите, что в 3Д анализ входит анализ логов, там мол видно как бот ходит по сайту.
Мне непонятно, как в многомиллионом списке лог строк можна отследить какие-то тенденции. Как вы это предлегаете делать? И еще вопрос: какая задержка в отображении данных у вас и в GSC?

Ответить
Развернуть ветку
Serge Bezborodov
Автор

1. вся суть в количестве данных, в логах за несколько месяцев обычно видны тенденции, как сайт краулится, сколько новых страниц залетает и т.д.
Анализ больших данных всегда стоит начинать с общих показателей, тенденций потом уже углубляясь на уровни ниже вплоть до конкретной страницы.

2. GSC обычно отдает данные с задержкой в три дня

Ответить
Развернуть ветку
kolyan

1. Как именно из логов сервера вы понимаете почему бот не ходит на определенные страницы? Вот, допустим, на странице А две ссылки. Вы по логам понимаете, что бот постоянно переходит на страницу B, но не ходит на страницу C. Что вы можете понять, посмотрев на логи? К чему все это?

2. Что такое "receivieng impressions", "receiving clicks"? Страницы, получившие просмотры? Страницы на которых кликнули по каким-то ссылкам или страницы на которые перешли по каким-то кликам?

3. По рассчету принципа Паретта. Вы там смотрите какие-то клики - что это за клики? Клики в выдаче или внутренние по сайту? Или на определенной странице?

4. Скриншот про каннибализацию - ничего не понятно. Какие-то четыре списка страниц. Откуда они взялись? Что означают цифры 143, 272 на них? Почему тут канибализация?

5. "Количество кликов и ранжирования по позициям". О каких кликах идет речь на скриншотах - это статистика по кликам и переходам из выдачи поисковика? Она собрана для тематики в целом или это статистика по сайту?

Ответить
Развернуть ветку
Serge Bezborodov
Автор

ответил вам чуть ниже

Ответить
Развернуть ветку
Roman Mikhol

Неплохо. Свежо. И есть куда стремиться -> VR Аналитика :) Есть и замечания, не критики ради, а понимания для.
1. Google аппроксимирует данные, чтобы графики выглядели такими красивыми, как вы их видите и могли установить алерты. В реальности пики не всегда будут приходиться на понедельники.
2. Чтобы говорить о поисковых трендах, необходимо анализировать несколько и желательно топовых сайтов ниши. Иначе, это только частный случай.
3. Люди больше ищут вакансий не потому что «с понедельника бросаю курить и ищу новую работу», а потому что сайты размещают новые вакансии и делают большие рассылки по понедельникам, чем стимулируют пользователей к повторному поиску по ключевым словам.
4. Кликов на мобильных больше не потому что Mobile First, а потому что на десктопе в один экран помещается больше результатов серпа с длинными тайтлами и полными сниппетами, т.о. пользователь выбирает не 1 из 5, а 1 из 10. Сравните относительное кол-во коротких кликов и показатель отказов для мобильного и десктопного трафика.
5. «Длинные хвосты» - это не про глубину поиска, а про запросы. Например, у меня на второй странице поиска результаты со 101-й по 200-ю позиции.
6. Бывают ситуации, когда запросу «купить телефон» отвечают одновременно все страницы вашего сайта. И это не значит, что все их нужно переклеить на Главную или собрать в лендинг. Страницы оптимизируются под определенные НЧ запросы и поисковые подсказки, которые, как и написание ключевых слов, в разных ПС могут отличаться значительно и контент здесь - король. Каннибализация - это история не про многостраниц одного сайта на странице выдачи, а про оптимизированные под один и тот же запрос страницы с разных сайтов, принадлежащих одному владельцу.
7. Перелинковка, безусловно, важна и влияет на глубину просмотра от страницы входа. Но утверждение, что 10-11 внутренних ссылок оказывают более значимое влияние, чем 5-7 довольно сильно притянуто если не за уши, то за тот самый хвост. Какие проблемы, захотели качнуть страницу - проставили сквозняком и идёте паковать чемоданы. Гораздо важнее где на странице, с каким анкором или без него и насколько близка тематика страниц. Кроме того, углубляясь во внутреннюю оптимизацию (факторы сдерживающие рост), вы не учитываете внешнюю (факторы стимулирующие рост), а ведь одной внешней ссылки с посещаемой тематической страницы часто более чем достаточно, чтобы взлететь..

Развивайте свой продукт и у вас обязательно что-нибудь получится ;)

Ответить
Развернуть ветку
Serge Bezborodov
Автор

Здравствуйте, Роман
1. в данном случае пики на понедельник - это данные по конкретному работному сайту, точно также как у екомерса пики перед праздниками
2. тренды также есть и внутри каждого сайта, если вы видите общее падения импрешенов, позиций уже второй месяц по сегменту сайта - то это явно негативный тренд внутри вашего сайта
3. и да и нет, джобсайты в принципе рассылают вакансии по подпискам не обязательно к понедельнику, а чаще всего каждый день, когда есть новые вакансии. И если смотреть аналитикс, то в понедельник будет ровно такой же процент новый посетителей как и в любой другой день.
4. возможно
5. у каждого свое понятие длинного хвоста )
6. мы говорим про канибализацию в контексте больших сайтов, от 100 тыс страниц. Этим инструментом нужно правильно пользоваться и он сможет показать ситуации когда у вас ранжируются страницы вида "работа главным бухгалтером", "работа бухгалтером главным"
7. в статье весьма упрощенно сказано про перелинковку. Я целиком и полностью согласен, что важна тематичность, чтобы ссылки были в видимой области, а не серым текстом в футере. И по ВЧ запросам вы внутренними ссылками в ТОП 1 никогда не станите. Но грамотное использование перелинковки - это отличный инструмент, когда у вас семантика из сотен тысяч НЧ запросов, которые можно пододвинуть ближе к ТОПу. 20 августа буду читать вебинар на эту тему https://webinars.collaborator.pro/webinar/perelinkovka-webinar буду рад подискутировать там с вами)

спасибо за такой объемный комментарий

Ответить
Развернуть ветку
Roman Mikhol

Спасибо за ваш ответ.
Не обещаю, что смогу присоединиться к вебинару 20 августа, но зарегистрировался.

Ответить
Развернуть ветку
Endorphin

Судя по статье очень интересный инструмент. Если прикрутите к нему не только данные по внутренним ссылкам но еще и внешним (Ahrefs), а так же данные по частотам например по серпстату. Цены инструменту не будет)) Побежал тестить

Ответить
Развернуть ветку
Антон Антонов

Вопрос не совсем по теме статьи, но я зашел на упомянутый выше сайт hotwork.ru, а он заблокирован роскомнадзором. Как так вышло?

Ответить
Развернуть ветку
20 комментариев
Раскрывать всегда