Воронка SEO-трафика: на чём многостраничные сайты теряют трафик

Системный подход к продвижению. Без «наверное, поисковики опять что-то подкрутили».

У продвижения небольших и многостраничных сайтов разные подходы. У многостраничника могут быть сотни тысяч запросов, которые приносят трафик. Поэтому в продвижении нужно учитывать не только позиции по запросам, но и другие факторы. Мы объединили их в абстрактную модель — SEO-воронку. Показываем, что и на каком этапе нужно проверять.

Статья будет полезна для сайтов, у которых больше 10 тысяч страниц: крупных интернет-магазинов, справочников, СМИ, сайтов вопросов-ответов, форумов, отзовиков, агрегаторов с бронированием туров, билетов и других подобных.

Рассказывает Роман Прохоров, со-основатель рекламного агентства Digital Strategy.

Что такое SEO-воронка и для чего нужна

SEO-воронка — модель, которая описывает движение пользователей и поисковых роботов от поискового запроса до целевого действия.

Мы хотим привлечь пользователя по запросу «купить черный кожаный диван». Для этого мы создаем на сайте страницу с такими диванами.

После публикации страницу посещают роботы поисковых систем и добавляют ее в свою базу данных. Поисковики определяют, что эта страница релевантна выбранному запросу. То есть по запросу «купить черный кожаный диван» правда диваны, а не шторы. Раз так, поисковик присваивает странице определенную позицию в поиске.

Пользователь вводит запрос «купить черный кожаный диван» в поисковик и переходит на сайт. Если какой-то из диванов подходит, и покупателю удается его заказать, он делает покупку. В этом цель продвижения.

Если у сайта тысячи страниц, на каждом этапе возможны проблемы. Из-за них сайт не попадает в топовые места выдачи и на него заходит мало потенциальных клиентов. Опасности подстерегают сайт на каждом шагу, а воронка SEO описывает, что нужно проверить.

Воронка SEO-трафика: на чём многостраничные сайты теряют трафик

Теперь подробнее про каждый этап.

Семантическое ядро: что пользователи ищут на сайте

Семантическое ядро — список поисковых запросов, по которым пользователи ищут товар, услугу или информацию. «Купить диван» или «черный кожаный диван в москве» — поисковые запросы.

От полноты семантического ядра зависит объем поискового трафика, который может получить сайт.

Пользователи ищут диваны по запросу «красный вельветовый диван». На сайте красные вельветовые диваны есть, но нет отдельной страницы с такими диванами. Значит, пользователь не придет по этому запросу на сайт и, скорее всего, купит диван у конкурентов.

Семантическое ядро многостраничного сайта включает запросы с постоянным спросом; шаблоны запросов по тематике; событийные, сезонные и трендовые запросы.

Запросы с постоянным спросом. Это общие запросы, которые чаще всего ищут пользователи. Их можно найти через специализированные сервисы: «Вордстат», Google Key Planner, Just Magic, Spywords, SemRush. Если пропустить какой-то из популярных общих запросов, можно потерять значимое количество трафика.

Оптимизатор интернет-магазина детских товаров сфокусировался на продвижении высококонкурентных запросов, например «детские велосипеды». Но он забыл о популярных запросах вида «детские велосипеды с ручкой от 1 года», которые приносили значимую часть продаж.

Шаблоны запросов по тематике. Это запрос вида «купить %НАЗВАНИЕ_КАТЕГОРИИ% в Москве». Более 50% запросов, которые пользователи ищут через поиск, повторяются не чаще раза в месяц. Поэтому их невозможно отследить заранее, но можно предсказать на основе известных типовых запросов и фактической статистики сайта.

В интернет-магазине бытовой техники были страницы с отзывами по товарным категориям. Оптимизатор предполагал, что пользователи ищут запросы в формате «отзывы о холодильниках название_бренда». На самом деле основной шаблон запроса был «холодильники название_бренда отзывы». Корректировки запросов и контента страницы помогли увеличить поисковый трафик на страницу отзывов.

Событийные, сезонные и трендовые запросы. Не получится раз и навсегда собрать семантическое ядро и больше ничего с ним не делать. Пользовательский спрос постоянно меняется, поэтому нужно регулярно пополнять и обновлять семантическое ядро. Например, в июле сложно собрать семантику по новогодним подаркам, тогда их никто не ищет. Эту информацию лучше получить в декабре-январе и использовать для следующего Нового года.

В интернет-магазине продуктов оптимизаторы задумались о продвижении новогодних запросов в октябре. Только в декабре они создали посадочные страницы по новогодним предложениям. Но страницы не успевали проиндексироваться и получить поисковый трафик. Магазин изменил тактику и начал готовиться к праздникам в июле. Трафик увеличился.

Вот для примера запрос с выраженной сезонностью. Пик запросов приходится на декабрь:

Спрос по фразе «салат Оливье» — данные из из «<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwordstat.yandex.ru%2F%23%21%2Fhistory%3Fwords%3D%25D1%2581%25D0%25B0%25D0%25BB%25D0%25B0%25D1%2582%2520%25D0%25BE%25D0%25BB%25D0%25B8%25D0%25B2%25D1%258C%25D0%25B5&postId=56039" rel="nofollow noopener" target="_blank">Вордстата</a>»
Спрос по фразе «салат Оливье» — данные из из «Вордстата»

Вот запрос с выраженным трендом, данные тоже из «Вордстата»:

За счет агрессивной рекламы Xiaomi превратился из китайского ноунейма в популярный бренд
За счет агрессивной рекламы Xiaomi превратился из китайского ноунейма в популярный бренд

Что нужно проверить на этом этапе:

  • По каким запросам потенциальные покупатели ищут товары в вашей тематике? Какие запросы самые популярные?
  • По каким запросам получают трафик ваши конкуренты? Есть ли потенциально интересные запросы, по которым пока нет страниц на сайте?
  • Какие слова-маркеры, например «купить», «цена», «отзывы», чаще используют потенциальные клиенты? Какие шаблоны запросов можно считать ключевыми для продвижения?
  • Какие пики сезонности в тематике?
  • Что изменилось в поисковом спросе по тематике за последние три, шесть, двенадцать месяцев? Сколько новых запросов появилось в семантическом ядре?

Посадочные страницы на сайте

Семантическое ядро нужно сгруппировать по продвигаемым страницам сайта. Мы рекомендуем делать это по принципу «одна проблема — одна страница».

Правда, всегда нужно учитывать фактическое ранжирование в поисковых системах. Например, для информационного лонгрида бывает полезно объединить несколько тем в одной странице, а в конкурентной коммерческой тематике — наоборот, создать две страницы под одну тему. Этот процесс называется кластеризацией семантики, его удобно делать с помощью сервисов Just Magic, Rush Analytics и других.

Для продвижения запросов по детским диванам нельзя использовать общую страницу «диваны». Нужно создать отдельную страницу с диванами, которые подходят для детей.

Мы так и сделали. Собрали запросы по диванам, провели кластеризацию и выделили отдельную группу «Детские диваны»:

Воронка SEO-трафика: на чём многостраничные сайты теряют трафик

У поисковика может быть свое представление, какие проблемы может решить одна страница, а какие — несколько разных.

Кажется, что запросы «зимние шины» и «шины на зиму» одинаковые по смыслу. Но «Яндекс» считает по-другому. По первому запросу поисковик выдает магазины шин, по второму — экспертные статьи по выбору шин.

Информационные статьи в выдаче «Яндекса» по запросу «шины на зиму»
Информационные статьи в выдаче «Яндекса» по запросу «шины на зиму»
Выдача «Яндекса» по запросу «шины на зиму»
Выдача «Яндекса» по запросу «шины на зиму»

В данном случае для продвижения по двум запросам одновременно нужно создавать разные страницы.

Вот что еще нужно проверить по посадочным страницам, чтобы не терять трафик:

  • Все продвигаемые страницы существуют на сайте и доступны по внутренним ссылкам. Тогда поисковый робот сможет их посетить. Доступность страниц можно проверить в общедоступных программах, например, Screaming Frog.
Воронка SEO-трафика: на чём многостраничные сайты теряют трафик
  • Поисковые роботы не будут тратить ресурсы на обход страниц, у которых нет ценности для продвижения. В интернет-магазинах бывает огромное количество лишних страниц, если для поисковых роботов доступны все возможные пересечения фильтров в каталоге.
Воронка SEO-трафика: на чём многостраничные сайты теряют трафик

Создать правильную страницу — полдела. Кроме этого, придется отслеживать десятки параметров. Один из них — корректный заголовок в теге <title>. Например, на одном сайте программисты удалили название городов из тега <title>:

Если быстро не решить проблему с title, страницы потеряют поисковый трафик по связанным группам запросов
Если быстро не решить проблему с title, страницы потеряют поисковый трафик по связанным группам запросов

Чтобы вовремя замечать проблему с заголовками, рекомендуем настроить ежедневную проверку изменений на всех продвигаемых страницах. Мы используем для этого собственный софт, но такая функция есть у многих сервисов проверки позиций.

Что нужно проверить на этом этапе:

  • Существуют ли на сайте все необходимые страницы для охвата семантического ядра?
  • Совпадает ли наша логика создания страниц с логикой группировки запросов поисковых систем?
  • Все ли страницы доступны для поисковых роботов?
  • Существуют ли на сайте ненужные для продвижения страницы, которые доступны поисковому роботу?
  • Какие страницы дублируют друг друга?

Посещение страниц поисковыми роботами

После создания страниц их начинают индексировать поисковые системы. Это значит, что поисковый робот приходит на сайт и сохраняет контент в своей базе данных.

Если роботы не посещают нужные страницы, сайт не получает трафик. Например, в интернет-магазине диванов есть страница с красными вельветовыми диванами, но робот на эту страницу по каким-то причинам не заходит. Значит, мы теряем трафик от пользователей, которые интересуются такими диванами.

В справочнике организаций регулярно добавлялись новые компании, но они попадали на последние страницы каталога. «Яндекс» долго их не посещал. Мы сделали отдельный блок перелинковки, увеличили приоритет новых компаний в sitemap.xml, и робот стал посещать новые страницы в течение недели после появления.

Проблему с посещением страниц роботами можно решить несколькими способами:

  • Изменить ссылочную структуру сайта, чтобы продвигаемые страницы были доступны в три-четыре клика от главной.
  • Поддержать проблемные страницы внешними ссылками, репостами в социальных сетях или рекламным трафиком.
  • Создать блоки перелинковки, в которых будут выводиться страницы, которые еще не посещали роботы поисковиков.

Есть два способа отследить, какие страницы сайта посещают поисковые роботы:

  • Делать выгрузку и разбор логов веб-сервера. Сервер хранит полный список визитов сайта, будь то люди или роботы. Но бывает трудоемко выгрузить эту информацию и сортировать.
  • Использовать данные из «Яндекс.Вебмастера» и Google Webmasters Tools. Это быстрее, чем выгружать с сервера, но здесь информация может быть урезана, и невозможно проверить ее достоверность.

Поисковый робот не будет ежедневно индексировать все страницы сайта. У поисковой системы есть «краулинговый бюджет» — лимит посещений каждого сайта роботом. Поэтому для быстрой индексации важно, чтобы робот посещал только страницы для продвижения и не тратил «бюджет» на бесполезные страницы.

На сервисе бронирования отелей мы заметили, что до 40 % посещений робота приходится на страницы с get-параметрами. Это страницы, которые создаются индивидуально для каждого пользователя, когда он ищет отели на разные даты.

Страницы были недоступны по ссылкам, но роботы получали информацию о них через данные браузеров. Мы изменили структуру URL-адресов, сфокусировали роботов на целевых страницах и ускорили индексацию.

Что нужно проверить на этом этапе:

  • Удобна ли структура сайта для поисковых роботов? За сколько кликов они могут дойти до всех продвигаемых страниц?
  • Как часто роботы посещают продвигаемые страницы? Роботы уже посетили нужные страницы или нет?
  • Какие ответы сервера получают роботы, когда заходят на страницы сайта?
  • Какой процент посещений робота приходится на нецелевые страницы? Как мы можем закрыть эти страницы для робота и перенаправить на продвигаемые?
  • Как настроены приоритеты в sitemap.xml?

Индексация

После сканирования страницы поисковым роботом, поисковая система принимает решение о добавлении страницы в поисковый индекс. Только проиндексированные страницы могут участвовать в ранжировании и получать поисковый трафик.

Изменения по индексации и их причины можно отслеживать в инструментах для вебмастеров — «Яндекс.Вебмастере» и Google Search Console. Для большей точности лучше проверять индексацию каждой страницы специальными программами.

Данные «Яндекс.Вебмастера» по страницам, которые исключены из поискового индекса. 6 декабря выросло число страниц, которые запрещены для индексации через robots.txt и метатег noindex. Нужно проверить, что в список не попали продвигаемые страницы
Данные «Яндекс.Вебмастера» по страницам, которые исключены из поискового индекса. 6 декабря выросло число страниц, которые запрещены для индексации через robots.txt и метатег noindex. Нужно проверить, что в список не попали продвигаемые страницы

Частые проблемы на этапе индексации:

  • Страница отдала некорректный ответ поисковому роботу в момент индексации. Например, редирект или ошибку сервера.
  • Страница содержит недостаточно качественный контент с точки зрения поисковой системы. Самые частые ошибки— отсутствие фотографий у товаров, неуникальные тексты или их отсутствие.
  • Содержание страницы дублирует проиндексированные страницы на этом сайте или других сайтах.
  • Страница неканоническая или запрещена для индексации с помощью robots.txt.

В индексе поисковика должны быть только те страницы, которые могут приносить поисковый трафик. Само по себе количество проиндексированных страниц нельзя считать ценностью, от лишних страниц в выдаче больше вреда, чем пользы.

Google не индексировал большинство страниц интернет-магазина с товарами, потому что контент был неуникальным. Мы подготовили описание на страницы приоритетных товаров, а остальные закрыли для индексации. В итоге улучшилась индексация товарных страниц, а видимость сайта по общим запросам в течение года выросла с 1 % до 30 %.

«Яндекс» не индексировал страницы филиалов сетевых компаний в справочнике организаций. Дело было в том, что все филиалы значились под названием компании, например, «Пятерочка».

Мы добавили в заголовки сокращенный адрес филиалов, например, «Пятерочка на Бакунинской улице в Москве». Дополнительно добавили блоки «Ближайшие пятерочки от этой», «Ближайшие продуктовые магазины от этой» и отзывы, адреса, часы работы по каждому филиалу. Сделали автоматическую генерацию уникального описания для каждого филиала.

Страницы проиндексировались, и сайт получил поисковый трафик по низкочастотным запросам вида «Пятерочка на улице Вязов».

Один из проектов неожиданно полностью вылетел из индекса. Как выяснилось, разработчик случайно перенес с тестового сайта файл robots.txt с директивой, которая запрещала индексировать сайта. Проблему устранили, а чтобы она не повторялась, написали скрипт, который ежедневно проверяет изменения на сайте и сообщает о подобных проблемах.

Что нужно проверить на этом этапе:

  • Все ли продвигаемые страницы индексируются в «Яндексе» и Google?
  • Нет ли страниц с ошибками, битыми ссылками и санкциями за некачественный контент?
  • Нет ли в индексе сайта лишних страниц, которые не приносят трафик?

Релевантность страниц продвигаемым запросам

Оптимизатор решает, какая страница на сайте будет релевантна продвигаемому запросу. По запросу «купить красный диван» должна быть страница с красными диванами. Но поисковик может решить по-другому. Например, по запросу бренда показывать страницу одного из товаров этого бренда:

Это не наш клиент, увидели в поисковой выдаче случайно. Предполагаем, что по этому запросу должна продвигаться страница со всеми мультиварками бренда Redmond, а  Google показывает конкретный товар
Это не наш клиент, увидели в поисковой выдаче случайно. Предполагаем, что по этому запросу должна продвигаться страница со всеми мультиварками бренда Redmond, а Google показывает конкретный товар

Такие проблемы нужно диагностировать через сверку URL в проверке позиций. Иногда оптимизаторы диагностируют эту проблему через оператор «site:site.ru поисковый запрос», но этот метод уже давно не работает корректно.

Чаще всего на этом этапе возникают такие ошибки:

  • Оптимизатор не учел нюансы ранжирования в тематике и выбрал неправильную страницу для продвижения.
  • Контент продвигаемой страницы недостаточно подходит под соответствующие запросы. Например, мы продвигаем запрос «купить диван», а на странице нет списка товаров с ценами и слова «диваны» в заголовке. Кроме того, на этой странице вместе с диванами показаны кресла.
  • у продвигаемой страницы маленький статический вес или плохие поведенческие факторы. Если грубо, статический вес – показатель, который показывает количество и качество ссылок, которые ведут на страницу. Точной формулы у него нет.

Поисковые системы не дают инструменты, чтобы однозначно определить причины, почему страница не релевантна запросу. Поэтому придется действовать экспериментальным путем.

По запросу вида «категория+бренд» Google выводил страницу категории. При анализе выяснилось, что на страницу бренда вело мало внешних ссылок. Поэтому поисковик считал второстепенной. Мы изменили перелинковку на сайте, и это решило проблему.

Что нужно проверить на этом этапе:

  • Какие страницы поисковики показывают по продвигаемым запросам? Совпадает ли это с нашими ожиданиями?
  • Как изменились предпочтения поисковиков по целевым страницам в нашей тематике?

Позиции

Позиции могут меняться по всему сайту; конкретным типам страниц или запросов; конкретным страницам или регионам; по конкретным запросам.

Когда сайт продвигается по десяткам тысяч запросов, сложно регулярно анализировать каждый из них. Поэтому для таких сайтов главное — анализировать тренды и находить проблемы. Мы рекомендуем проводить четыре вида проверки позиций:

  • Ежедневная проверка позиций по приоритетным запросам. Помогает быстро реагировать на крупные изменения в позициях сайта.
  • Еженедельная проверка по группам запросов, которые относятся к типовым кластерам страниц и запросов. Так можем видеть изменения трендов по разным кластерам сайта.
  • Ежемесячная проверка по всем продвигаемым запросам. Помогает проводить глубокую аналитику и находить незаметные с первого взгляда проблемы.
  • Экспериментальные проверки позиций. Например, придумали что-то новое, скорректировали небольшое число страниц и завели по ним отдельную проверку позиций. Так можем отследить результаты эксперимента.

Вот список проверки позиций по одному из интернет-магазинов:

Показаны проверки, которые влезли на скриншот, всего по этому магазину регулярно проводится около 30 разных проверок
Показаны проверки, которые влезли на скриншот, всего по этому магазину регулярно проводится около 30 разных проверок

Для больших сайтов имеет смысл измерять позиции:

  • по доле и числу запросов в топ-3, топ-10, топ-30;
  • сводному показателю «видимости».

Топ-Х — это первые Х результатов поиска. Например, сайт находится по запросу в Топ-10, значит, он занимает в выдаче одно из мест с первого по десятое.

Чтобы понимать, где мы находимся, нужно следить за показателями видимости. Видимость показывает потенциал не по запросам, а по количество показов пользователю. По этому показателю мы понимаем, сколько человек увидят наш сайт и можем узнать потенциал продвижения сайта.

Мы считаем, что идеальный результат — нахождение всех запросов в Топ-3. Видимость 100 % означает, что все запросы находятся в Топ-3.

Если начинаем работать, а у сайта видимость 2 %, потенциал продвижения высокий. С видимостью 40 % нужна точечная работа, потенциала у сайта не очень много.

Видимость показывает долю поискового трафика, которую сайт получает со своими текущими позициями. Вот формула для расчета видимости в одной поисковой системе:

∑k*p/∑p*100

где ∑ - сумма значений, p — частота запроса, k — понижающий коэффициент позиции.

Коэффициент зависит от позиции сайта:

  • Первая, вторая и третья позиции сайта — k = 1.
  • Четвёртая позиция — k = 0.85.
  • Пятая позиция — k = 0.60.
  • Шестая и Седьмая позиции — k = 0.50.
  • Восьмая и девятая позиции — k = 0.30.
  • Десятая позиция — k = 0.20.
  • Одиннадцатая позиция и ниже — k = 0.

Эту формулу разработал Игорь Станиславович Ашманов более 10 лет назад. За это время распределение кликов по поисковой выдаче изменилось, но она по-прежнему подходит, чтобы оценить потенциал SEO-трафика.

Динамика видимости сайта в «Яндексе» по одному из проектов. Показатель за отчетный период вырос с 30 % до более чем 50 %.
Динамика видимости сайта в «Яндексе» по одному из проектов. Показатель за отчетный период вырос с 30 % до более чем 50 %.

Данные по динамике в Топах помогают понять характер изменения видимости. Например, на этом сайте практически все запросы, которые попали в топ-100, находятся в топ-10:

Воронка SEO-трафика: на чём многостраничные сайты теряют трафик

Оптимизатору нужно проанализировать запросы, которые находятся за пределами топ-100 и запросы, которые находятся на местах с четвёртого по десятое. Скорее всего, под запросы за пределами топ-100 не созданы страницы или есть грубые ошибки в оптимизации. А для мест с четвёртого по десятое нужно сфокусироваться на поведенческих факторах.

Лучше смотреть график видимости за весь период продвижения, за месяц график не покажет динамики.

Если появились проблемы с позициями, сначала нужно понять, по какому типу запросов или типу страниц произошло снижение, потом — определить характер снижения. Например, позиции снизились на фиксированное число пунктов, вылетели за пределы топ-100 или нет выраженного характера изменений.

Интернет-магазин мебели упал на двадцать позиций в выдаче «Яндекса» практически по всем запросам. Это явный признак наложения санкций, например, «Минусинск» или «Баден-Баден». «Яндекс.Вебмастер» показал, что поисковая система наложила санкции за недостаточно качественные тексты.

Мы убрали тексты с сайта, написали в техподдержку «Яндекса» и параллельно начали заменять тексты на более полезные. Через два месяца «Яндекс» снял санкции, и большинство позиций вернулось.

У интернет-магазина снизились позиции в Google после внедрения HTTPS. Позиции просели по всем запросам. Оказалось, сайт год назад переехал со старого домена на новый. Старый домен не был доступен по HTTPS, поэтому редирект отрабатывал некорректно. Мы внедрили HTTPS на старом домене и скорректировали цепочки редиректов — сайт вернулся на прежние позиции в выдаче.

У интернет-магазина косметики была негативная динамика видимости в «Яндексе». То есть со временем он падал в выдаче.

Оказалось, что раньше по общим категорийным запросам, например, «маски для лица», «Яндекс» выводил на первых позициях товары из интернет-магазинов. А потом посчитал запросы информационными и стал выводить статьи. Мы сфокусировались на более транзакционных запросах.

Снижение позиций сайта не всегда связано с какими-то ошибками в продвижении. Бывает, что поисковая система выложила какой-нибудь собственный проект в вашей тематике. Он автоматически занял первые места, а все конкуренты получили минус одну позицию. Так любит делать «Яндекс»:

Воронка SEO-трафика: на чём многостраничные сайты теряют трафик

В некоторых тематиках агрегаторы и классифайды — доски объявлений — получают преимущества в выдаче, и магазинам становится сложнее конкурировать с ними:

Динамика видимости по коммерческим запросам в парфюмерной тематике в Москве. Как видно, у агрегаторов и классифайдов — очень хорошая динамика роста
Динамика видимости по коммерческим запросам в парфюмерной тематике в Москве. Как видно, у агрегаторов и классифайдов — очень хорошая динамика роста

Что нужно проверить на этом этапе:

  • Какие позиции занимает сайт по продвигаемым запросам? Какая динамика и общий тренд? Как улучшить видимость сайта?
  • Как выглядит динамика позиций по разным сегментам сайта? C каким сегментом стоит поработать более плотно?
  • Что происходило с сайтом в последний год? Как это повлияло на позиции по разным группам? Какие изменения алгоритмов поисковиков происходили в последнее время?
  • Какие тенденции видны в выдаче по тематике? Какая динамика позиций у конкурентов? У кого быстрее всех растут позиции? Что они для этого делают?

Кликабельность сайта в поисковой выдаче

На кликабельность сайта CTR влияют не только высокие позиции в выдаче, но и описание сайта — сниппет.

Поисковики, особенно «Яндекс», много экспериментируют с форматами сниппетов: эмоджи, структурированная информация, цены, фавикон.

Сниппеты со структурированной информацией
Сниппеты со структурированной информацией
Сниппет с эмоджи
Сниппет с эмоджи

Единственный инструмент оценки CTR сайта в выдаче — данные в панелях вебмастеров, например, в «Яндекс.Вебмастере»:

Воронка SEO-трафика: на чём многостраничные сайты теряют трафик

Правда, данные не всегда корректны, поэтому со сниппетами приходится экспериментировать.

Иногда поисковики усложняют задачу оптимизатора — добавляют новый «колдунщик» или четвертое (пятое, шестое) объявление контекстной рекламы. Вот пример «колдунщика»:

«Колдунщик» — элемент выдачи, который отвечает на вопрос или решает задачу. Например, прямо в выдаче выпадает форма заказа авиабилета. Больше о «колдунщиках» — в «<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fyandex.ru%2Fsupport%2Fsearch%2Fwizards.html&postId=56039" rel="nofollow noopener" target="_blank">Яндекс.Поиске</a>»
«Колдунщик» — элемент выдачи, который отвечает на вопрос или решает задачу. Например, прямо в выдаче выпадает форма заказа авиабилета. Больше о «колдунщиках» — в «Яндекс.Поиске»

Все эти изменения влияют на кликабельность сайтов в органическом поиске, поэтому нужно регулярно проверять не только позиции, но и внешний вид выдачи.

Что нужно проверить на этом этапе:

  • Насколько сниппеты релевантны продвигаемым запросам?
  • Какие возможности разметки сниппетов используем и какие они дают результаты?
  • Как выглядят сниппеты наших конкурентов? Что интересного мы можем почерпнуть для себя?

Трафик

Теперь можно оценивать, к чему привело продвижение. Тут всё просто: поисковый трафик вырос — хорошо, снизился — плохо.

Трафик зависит не только от позиций и кликабельности сайта, но и от сезонности спроса в тематике. Бывает, что трафик может резко колебаться из-за внешних событий. Например, какой-то товар показали по телевизору.

При любых колебаниях трафика план такой:

  1. Проанализировать срезы статистики сайта по типам страниц, устройствам, региональности трафика и другим доступным параметрам.
  2. Проанализировать динамику позиций по всем группам запросов, проанализировать динамику переходов на сайт по всем группам запросов.
  3. Связать динамику с изменением позиций по одному из сегментов и провести глубокий анализ «проблемного» среза, например, по этой воронке.

Вот несколько примеров, как можно анализировать изменение трафика.

На сайте снизился поисковый трафик за последнюю неделю. Смотрим по срезам: по другим каналам трафик тоже снизился, а скорость загрузки страницы в Google Analytics выросла в несколько раз. Оказалось, у клиента проблемы с серверами, работы по SEO тут ни при чем.

В интернет-магазине произошло снижение трафика из «Яндекса». Анализ показал, что снижение произошло только по двум регионам. Оказалось, модераторы «Яндекс.Справочника» удалили адреса филиалов компании в этих регионах. Трафик восстановился после возвращения филиалов.

На сайте интернет-магазина неожиданно вырос поисковый трафик, хотя динамика позиций была ровная. Выяснили, что один из товаров — пластмассовый стул, стилизованный под пень, разместили на развлекательном сайте, и он вызвал вирусный эффект. Люди стали переходить на сайт и смотреть на стул.

Важно отделять брендовый трафик от результатов продвижения. Брендовый трафик — это переходы по запросам, которые связаны с названием компании и адресом сайта. Конечно, поисковики шифруют запросы, по которым пользователи переходят на сайт, но есть методы примерной оценки типов поискового трафика. В случае работы с многостраничным сайтом, как правило, минимальную погрешность дает удаление из отчетов по SEO трафика, который приходит на главную страницу сайта.

Что нужно проверить на этом этапе:

  • Какова динамика поискового трафика по разным типам страниц и по другим срезам?
  • Какие работы над сайтом и внешние события повлияли на динамику трафика?
  • Какую динамика трафика мы ожидаем в ближайшие месяцы?

Поведенческие факторы

Поведенческие факторы — это метрики, которые оценивают полезность сайта для пользователей, если они перешли на него из поисковой выдачи. Поисковые системы получают информацию о поведении пользователей на основе статистики кликов в поисковой выдаче, данных собственных браузеров — Google Chrome, «Яндекс.Браузер», тулбаров и систем веб-аналитики Google Analytics, «Яндекс.Метрика».

Владелец сайта видит статистику в Метрике и Аналитиксе только по своему сайту, а «Яндекс» и Google получает аналитику по всем сайтам со счетчиками статистики. Соответственно, владелец сайта может посмотреть данные по своему сайту, но не может сравнить их с данными конкурентов.

По практике и докладам представителей поисковиков можно судить, что для «Яндекса» в первую очередь важно, вернулся ли пользователь в поисковую выдачу после перехода на сайт. А Google просто оценивает кликабельность сайта в поисковой выдаче.

Для работы над поведенческими факторами можно оценивать метрики:

  • показатель отказов;
  • время сессии;
  • число просмотренных страниц.

Эти три параметры универсальны для всех сайтов, но для разных типов сайтов есть дополнительные метрики. Например, интернет-магазины могут использовать:

  • параметры посещения карточек товара;
  • просмотра информации о доставке;
  • добавления товаров в корзину;
  • посещения товаров в корзину, оставление почты для регистрации.

Эталонных значений нет. Они могут отличаться в разных тематиках и группах запросов.

Для ответа на вопрос «В каком году открыли метро пражская» пользователю достаточно провести на сайте 10 секунд, а для выбора одежды по запросу «купить платье на выпускной» может не хватить и часа.

Даже в рамках одного сайта эталонные значения могут различаться. Например, если покупатель попал на страницу конкретного товара, ему потребуется меньше времени до покупки, чем если он пришел на страницу товарной категории.

Поведенческие факторы лучше анализировать по типу устройств. Они могут сильно отличаться для мобильного трафика и пользователей, которые заходят с компьютеров.

На сайте интернет-магазина создали страницы под все возможные запросы в тематике. С помощью ссылочной оптимизация вывели страницы в топ. Но поведенческие факторы по ним были плохими, и страницы быстро вылетели с первых мест выдачи. Выдача по другим запросам тоже начала падать.

Мы проанализировали поведенческие факторы и оказалось, что клиент без предупреждения убрал из продажи товары нескольких брендов. Страницы остались, а товаров на них не было. Мы удалили эти страницы с сайта и так решили проблему.

Как диагностировать проблемы с поведенческими факторами на практике:

  • Смотреть показатели в динамике. Как минимум, они не должны ухудшаться.
  • Сравнивать показатели в рамках одного типа страниц. Например, страницы категория+бренд — «платья Mango» и «платья Pull&Bear».
  • Сравнивать показатели по запросам с одними и теми же маркерами «купить», «отзывы».
  • Сравнить средние показатели с сайтами прямых конкурентов через SimilarWeb. Это не самый точный инструмент, но помогает разобраться, по каким метрикам сайт проседает.

К примеру, вот сравнение базовых поведенческих факторов Ламоды и Вайлдберриз через Similarweb. У Вайлдберриз они ощутимо лучше:

Воронка SEO-трафика: на чём многостраничные сайты теряют трафик

Что нужно проверить на этом этапе:

  • Какой процент отказов у поискового трафика? Сколько времени посетители проводят на сайте?
  • Какая динамика поведенческих факторов поискового трафика? В каких срезах отрицательная динамика?
  • Как отличается время сессии и глубина просмотра продвигаемого сайта и сайтов прямых конкурентов? Есть куда расти?

Конверсии

Конверсии — это целевые действия, которые совершают на сайте пользователи: покупка, подписка на рассылку, заявка. Для информационных сайтов — процент дочитывания, количество прочитанных страниц на человека, количество переходов по рекламе или спецпроектам, подписка на рассылку.

Конверсия поискового трафика зависит не столько от работ по SEO, сколько от удобства сайта и конкурентности товарного предложения.

У клиента снизились продажи с поискового трафика. Оказалось, что показатели по контекстное рекламе тоже упали. Причина была банальной: клиент повысил цены на свои товары.

Частая ошибка: коммерческие сайты создают блог или раздел со статьями, оптимизаторы привлекают туда большое количество трафика, промежуточные показатели растут, а продажи — нет. Поэтому еще на этапе сбора семантического ядра нужно фокусироваться на запросах, которые могут принести конверсии, а не на тех, которые привлекут больше трафика.

Поисковый трафик интернет-магазина вырос на 30%, а продажи остались такими же. Из-за роста позиций в Google на сайте стало больше посетителей с мобильных телефонов, но у клиента не было полноценной мобильной версии. Покупать через сайт было неудобно, поэтому продажи не увеличились.

Что нужно проверить на этом этапе:

  • Какой процент посетителей из органического трафика совершает покупки или другие целевые действия?
  • Как меняется конверсия при росте поискового трафика?
  • Какие группы запросов показывают лучшие результаты по конверсиям? А какие не конвертируются вообще?

Ограничения SEO-воронки

Воронка SEO-трафика - это модель, абстракция. Знать SEO-воронку не значит быть хорошим оптимизатором, как знать воронку продаж не значит быть хорошим продавцом. Воронка помогает диагностировать проблемы и лучше понимать процессы продвижения многостраничных сайтов.

Формат статьи не позволяет подробно описывать факторы ранжирования и инструменты поискового продвижения, которые в изобилии присутствуют на каждом этапе. Если будет много вопросов по тому или иному пункту — посвятим этому отдельную статью.

Написал: Роман Прохоров, со-основатель рекламного агентства «Digital Strategy». Записала: Ирина Усиченко, редактор.

3131
16 комментариев

хорошо написали, мне понравилось. закажу чо-нить у вас

7

Времени потратили на написание много, но по факту обычная справочная информация, основа основ, а жаль.

1

Я порадуюсь, если чуть больше людей из отрасли будет разбираться в основах продвижения больших сайтов.

5

Давно сеошки не было. Видать кто-то новую галеру завел.

3

Да, всего-то одиннадцатая статья за месяц https://vc.ru/seo

2

В 90% статей про seo на vc ну просто бэйсик инфа

2

Мне почему-то кажется, что статьи типа "Как совместить SEO и Lazy Loading Images/Video" или "Кейсы улучшения позиций с помощью текстового анализатора" имеет смысл размещать на других сайтах. Возможно. ошибаюсь.