Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Как оказать своему сайту первую помощь, если позиции провисают.

Бывает так, что сайт выглядит идеально — в нем удобная навигация, интуитивно понятная структура. И вы точно знаете, что пользователь сможет быстро и без труда приобрести товар. Но трафик проседает!

Это довольно частая ситуация, с которой к нам обращаются на аудите. Причин просадок может быть множество: от технических проблем до недоработок с контентом. Все это приводит к тому, что сайт плохо индексируется и занимает менее выгодную позицию в выдаче.

В статье рассмотрим пять главных проблем ранжирования и индексации, которые прямо сейчас могут мешать вашему сайту развиваться и негативно влиять на трафик и позиции в выдаче. Разберем, как обнаружить эти проблемы и устранить.

Проблема 1. Страницы разных разделов сайта каннибализируются

При каннибализации несколько страниц из разных разделов начинают конкурировать между собой в выдаче. Это происходит, если все они оптимизированы под одну ключевую фразу.

Например, вы разместили на сайте классную статью о том, с чем можно сочетать сумку пудрового оттенка. Но вот беда — вы использовали в ней коммерческие ключи «купить», «цена», «покупка», которые предназначены для карточки товара. Из-за этого поисковый робот может посчитать страницу не информационной. В итоге поисковик не поймет, какая ссылка будет более релевантной (статья или карточка товара) и может ошибиться при выборе приоритетной.

В этом случае ранжироваться начинает нецелевая страница и пользователь увидит на ней информацию, которая не соответствует его интенту. Сайт может потерять трафик, позиции в выдаче.

Точного способа, как определить каннибализацию, не существует. Однако существует ряд косвенных признаков, который укажет на проблему:

  • частая смена релевантных страниц по определенному ключу или группе фраз — выявить это можно отслеживанием ситуации в Топвизоре на протяжении 10-14 дней;
  • скачки позиций страницы — просадка может наблюдаться от 5 до 15 позиции.
  • снижение трафика страниц — этот процесс плавный и затрагивает обычно небольшое количество страниц, поэтому проблему легко заметить при хорошем трафике на сайте.

Есть несколько способов, как предотвратить каннибализацию:

  1. Объедините страницы с использованием 301 редиректа. Наиболее эффективный способ. Пользователь, сам того не подозревая, будет перенаправляться со второстепенных страниц на основную.
  2. Удалите нецелевые страницы. Решение простое, но радикальное, поэтому применяют его не так часто.
  3. Поменяйте контент на страницах. Например, если на странице статья о сумке, то добавьте низкочастотных ключей с хвостами — «обзор на сумку», «как выбрать сумку». Это наиболее сложный способ, ведь потребует ресурсов не только для обновления title и description, но и для внесения правок в тексты.

На проекте по продвижению интернет-магазина по продаже спортивной обуви при запросе конкретной модели первую позицию в выдаче занимал блог, а уже потом карточка товара.

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Мы проверили, что страница блога приносила сравнительно немного трафика — 500 переходов в месяц против 5000 переходов на страницу товара. При этом в выдаче страница блога была релевантнее страницы с карточкой товара. Такое часто случается.

Это неплохой результат, поэтому мы оставили страницу, но полностью поменяли на ней контент — убрали упоминания коммерческих ключей «купить», «доставка», оставив преимущественно информационные ключи.

Спустя несколько недель при вводе того же поискового запроса страница блога исчезла из выдачи, а на первую позицию поднялась карточка товара.

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Проблема 2. Страницы сайта не индексируются

В статье об оптимизации краулингового бюджета мы подробно рассказывали о том, как важно, чтобы страницы сайта индексировались. Напомним, без индексации такие страницы не получат позиции в выдаче и на них не придет трафик.

Наиболее распространенная причина отсутствия индексации — в файле robots.txt закрывают важные для ранжирования страницы сайта. Чаще всего это происходит непреднамеренно — программисты решают какую-либо другую проблему, оптимизируют страницы, исправляют недоработки, но забывают про файл с директивой. Такую ошибку мы обнаружили на аудите одного из наших проектов.

Мы обнаружили в Яндекс.Вебмастер и Google Search Console, что страницы фильтрации в каталоге не индексировались обеими поисковыми системами. Оказалось, что все эти страницы были закрыты от индексации в директиве Disallow.

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Мы убрали директиву Disallow: */filter/, открыв роботам поисковых систем доступ к сканированию всех страниц 1-го и 2-го уровней фильтрации. После этого увеличился трафик по среднечастотным и низкочастотным запросам.

Проблема 3. Наличие thin content или неправильная работа с ним

Thin content — информация, которая не имеет пользы для читателя. Это вовсе не значит, что не следует писать сотую статью на тему «Как продвигаться в Telegram». Поисковик посчитает ее полезной, если вы добавите в текст ваше мнение, приведете примеры и кейсы — восполните пробелы, найденные в других подобных статьях.

Руководство Google для веб-мастеров поясняет, что к thin content относится автоматически сгенерированный контент, написанные исключительно ради ссылки малополезные партнерские статьи, скопированный контент и сайты дорвеи.

Обнаружить thin content можно по следующим признаками:

  • вы теряете позиции в выдаче;
  • ваш контент старый и не обновляется на сайте;
  • серьезно снижается трафик;
  • ухудшаются поведенческие факторы.

При правильной работе с thin content позиции сайта улучшатся, и он получит больше трафика.

Вот что нужно делать:

  1. Если возраст страницы более 6 месяцев, на нее не ведут внешние ссылки и она не приносит значимый трафик — удалите страницу, проставив 404 код ответа.
  2. Если возраст страницы более 6 месяцев, на нее ведут внешние ссылки и есть значимый трафик — поставьте 301 редирект на родительскую страницу или обновите на ней контент.

Как понять, что трафик малозначительный?

Мы определяем это, исходя из среднего количества трафика со всех страниц выбранной категории. Если отдельная страница приносит менее 5% полученной цифры, значит она приносит малозначительный трафик. Страницу можно удалять.

На проекте по продвижению сайта грузоперевозок мы нашли несколько страниц в блоге с возрастом более полугода, которые приносили малозначительный трафик и не имели ссылок.

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Мы удалили эти страницы, проставив коды 404. После этого количество индексированных страниц увеличилось на 230%, трафик — на 20% и продолжает расти.

Проблема 4. Низкие показатели E-A-T

E-A-T (Expertise, Authoritativeness, Trustworthiness) — факторы, отвечающие за экспертность, авторитетность и надежность сайта. Они не учитываются при продвижении сайта в Яндексе, но если ваша цель Google — чтобы заполучить место в выдаче, придется улучшать сайт.

Повышайте экспертность

Эксперт — это человек, который разбирается в тонкостях заданной темы, может оперировать фактами и цифрами. Он знает не только то, что известно всем, но и чуть больше. По такому же принципу поисковые системы оценивают сайты: чем более экспертный контент представлен на сайте, тем более экспертным считается сам сайт.

Для улучшения показателя создавайте уникальный и полезный контент, который будет отвечать на вопросы аудитории. Например, такой информацией может оказаться блок с самыми популярными вопросами и ответами на них.

На сайте одной из типографий собраны самые популярные вопросы и ответы на них
На сайте одной из типографий собраны самые популярные вопросы и ответы на них

Если вы хотите сделать обзор на новый смартфон Apple, найдите специалиста или фаната, который среди гаджетов, как рыба в воде. Того, кто знает новости телефонного рынка, кто не стесняется выражать свое мнение в общении с другими фанатами. Если этот человек знает наизусть все характеристики смартфонов, но не сможет генерировать контент, наймите редактора.

Если нет возможности заказать контент у эксперта, можно привлекать их для фактчекинга готового материала. Инфлюенсеры часто соглашаются дать комментарий на ту или иную волнующую тему.

Повышайте авторитетность

Экспертность тесно взаимосвязана с авторитетностью. Роботы Google должны убедиться, что контент на сайте создает эксперт: о криптовалюте пишет финансовый эксперт, а о почтовых рассылках — email-маркетолог.

Мы в своих статьях указываем имя и фамилию автора, а также прикладываем его фото. Так наши читатели понимают, что за каждым материалом стоит реальный человек, обладающий глубокими теоретическими и практическими знаниями в своей области.

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Если вы оказываете медицинские услуги (стоматология, поликлиника, пластическая хирургия), добавьте на сайт дипломы или сертификаты врачей, отзывы о них. Это внушит доверие к сайту не только у пользователей, но и у поисковых роботов. Если вы оказываете иные услуги (инженерные работы, юридические, продвижение), отзывы и подтверждение вашей квалификации будут также не лишними.

А если продвигаете информационный сайт, вам необходимо прокачивать авторитетность авторов — они должны публиковать материалы на схожие тематики в соц сетях и других источниках, чтобы со временем алгоритмы поисковиков связали их имена с определенными темами и присвоили уровень доверия.

Повышайте надежность

Надежный сайт — тот, на котором представлена следующая информация:

  • разделы «О нас» или «О компании» с подробным описанием, как давно и чем занимается компания;
  • отзывы клиентов;
  • информация о победах компании в конкурсах, участии в выставках и другой профессиональной деятельности;
  • информация о контактах содержит адрес, телефон, электронную почту, ссылки на социальные сети и мессенджеры;
  • политика конфиденциальности.

Достаточно один раз добавить максимум достоверной информации о компании на сайт, чтобы реализовать показатель надежности. Что касается экспертности и авторитетности — это процесс постоянный. Если не уделять внимание EAT, конкуренты, которые также борются за эти факторы, обойдут вас.

Однажды к нам на продвижение зашел магазин спортивного питания с проблемой низких позиций в выдаче. Мы изучили сайт и обнаружили ряд проблем:

  1. Статьи в разделе «Блог» писали два автора без фото и с никнеймами вместо имени.
  2. В карточках товаров было мало полезной информации — тексты не раскрывали суть продуктов для спортивного питания.
  3. В текстах раздела «О компании» присутствовали ошибки, а также невозможно было понять выгоды от заказа именно в этом интернет-магазине.

Для начала мы создали авторам два профиля, куда добавили их имена и фамилии, а также фотографии. После этого переписали контент в карточках товаров и в разделе «О компании». Чтобы увеличить доверие поисковых систем, добавили благодарности от партнеров и сертификаты на отдельную страницу.

Работа с факторами EAT проводилась в рамках комплексного продвижения, но даже это способствовало росту позиций в выдаче Google.

Проблема 5. Низкий показатель CTR

Показатель CTR (количество кликов) очень связан с качеством сниппета. Чем более привлекательным будет последний, тем больше пользователей захотят перейти на страницу. В противном случае CTR будет невысоким, то есть пользователи будут меньше кликать на ссылку и переходить на ваш сайт. Это снизит позиции сайта в выдаче.

Проверить CTR страниц можно в Яндекс.Вебмастер. Для этого заходим в «Поисковые запросы» → «Статистика страниц». При нажатии внизу кнопки «Страница» выбираем показатель «CTR, %».

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Обращаем внимание на топ-10 в выдаче, а среди них смотрим страницы с низким CTR.

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

По нашему опыту, если CTR страниц вашего сайта в районе 0,5%, значит, вам необходимо работать с этими страницами отдельно и повышать показатель. Напомним базовые рекомендации для повышения CTR.

Внедрите микроразметку

Микроразметка делается тегами с дополнительными атрибутами. Последние дают понять поисковым роботам, что конкретно содержится на странице сайта — статья, видео, ответы на вопросы, контакты, отзывы и многое другое.

Существует три основных вида микроразметки:

  1. Schema.org — наиболее популярный тип микроразметки, подходит практически любому продукту или услуге;
  2. Open Graph — отвечает за выдачу привлекательных сниппетов в соцсетях;
  3. JSON-LD — для вывода информации о концертах, мероприятиях. Для этого используется JavaScript.

Если микроразметка заполнена семантически правильно, в выдаче пользователь увидит расширенный сниппет с ценой, артикулом, адресом магазина — в зависимости от того, что было выделено тегами.

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Размечая микроразметкой страницу контактов, отзывы, каталог, вы получите не только красивый сниппет, но и поисковые роботы лучше поймут контент на вашем сайте.

Используйте эмодзи в сниппетах

Они привлекают внимание за счет контрастных цветов и усиливают восприятие от текста. Эмодзи отражают эмоции, который передает бренд потенциальным покупателям — взаимодействие и дальнейшее общение становятся легкими, теплыми и более дружественными.

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Добавьте эмодзи, чтобы улучшить ваш сниппет в выдаче. За счет того, что они моментально считывается, их смысл будет понятен как русскоязычной, так и иностранной аудитории.

Существует три способа разместить эмодзи:

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

И Яндекс, Google поддерживают все способы внедрения эмодзи. В случае с кодовым написанием поисковики сами преобразуют код в символ для своих сниппетов.

Ловите идеи, как отобразить разные тематики бизнеса при помощи эмодзи:

Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Обращайте внимание на тематику бизнеса: если она очень серьезная, стоит воздержаться от использования эмодзи или выбрать сдержанные варианты.

Проработайте мета-теги description

При прочтении мета-тегов пользователь должен иметь верное представление о том, что он увидит при открытии страницы. Будет ли там статья о 10 способах путешествовать недорого или страница с возможностью приобрести недорогой тур — в ваших силах это дать понять.

Description не должен выглядеть один в один, как title. При этом вы можете включать в него ключи из title или слова-синонимы.

Стройхолдинг-Трейд — наш клиент, для которого мы выделили отдельный этап по оптимизации сниппетов и получили рост кликабельности
Стройхолдинг-Трейд — наш клиент, для которого мы выделили отдельный этап по оптимизации сниппетов и получили рост кликабельности

В сухом остатке

Чем крупнее проект, тем больше проблем он может таить в себе. Поэтому так важно регулярно проводить SEO-аудит, выявлять уязвимые места и работать с ними: проверить файлы robots, чтобы открыть важные разделы для индексации, доработать сниппет для повышения CTR и многое другое.

Воспользуйтесь чек-листом технической оптимизации, чтобы провести самостоятельный аудит вашего сайта. Шаг за шагом вы сможете проверить те места вашего сайта, где наиболее часто встречаются проблемы.

Однако помните, что не всегда все лежит на поверхности. Некоторые недоработки можно обнаружить только путем более глубокого изучения структуры сайта и использования аналитики.

В блоге Кинетики мы рассказываем о своих процессах, делимся опытом, инсайтами и шаблонами внутренних инструментов

1111
8 комментариев

Малые причины. В качестве основных я бы выделил:
а) Текстовая нерелевантность
б) Ненабранные метрики (возраст, трафик, ПФ, видимость по ключам и т.п.).
Всё это по сути фильтры - не наказание, а непройденные пороги соответствия.
в) Хостовые метрики на стыке с коммерческими. Судя по всему, Яндекс сейчас просто не даст высоких позиций по группам запросов, если хост по его данным не соответствует заявленному бизнесу. И дело тут уже не в представленном на сайте ассортименте товаров и услуг. (Кстати, привет от нового фильтра "Мимикрия" как одного из проявлений этого момента).
Каннибализация? - Тут отмечено больше про интент. Неужели вы думаете, что наличие слов "купить" и "цена" где угодно способно сбить ПС с толку? "Цена" - это либо про прайс-лист, либо про тонну товарных карточек в категории, не про сеошную портянку или статью. То, что заявлено в ключе, должно быть раскрыто в контенте страницы. Каннибализация же чаще - это про нечеткие дубли или про ложные "хвосты" основного ключа, которые ПС просто отбрасывает как неважные.
Ну, и советы какие-то диковатые. Куча уже кейсов от любителей воевать с "зомби-страницами". Снесли тонну страниц без трафа - получили просадку вплоть до вылета по основной категории.
Просто потому, что веб-граф комплексно оценивается, а не по каким-то отдельным метрикам его узлов.

5

от любителей воевать с "зомби-страницами"...

Не первый раз встречаю советы "нет трафика - удаляй". И в этом посте индексация и трафик сразу в гору пошли - как это вообще связано? Не понимаю. И какой в этом смысл, например, для страниц блога. Принципиально новый текст не родится и топа, чтобы получать трафик, на всех не хватит.

1. Уважаемый автор... У вас со статьи про "Аудит сайта" ссылка ведет на страницу "Аудит рекламных компаний" - это вообще очень сильно заставляет усомниться в компетентности (ну с точки зрения логики и подкованных в теме людей).
2. Открытие страниц фильтра - спорное решение, которое может привести как к положительным, так и (в большинстве случае, на самом деле) к отрицательным. Причина этому в том, что открывая фильтры для индексации вы создаете генереж кучи страниц, которые потом могут вылетать из индекса как малополезный контент (и если таких страниц будет много - привет фильтр). Гугл вообще такие страницы редко индексирует и держит их в категории "Обнаружено но не проиндексировано". Также следует учесть что положительный эффект может (! акцент на слове может) сработать в Москве, где куча трафика (большая часть из которого боты - ну так, по секрету), а в регионах это не принесет вообще ничего, кроме того, что я описал выше.
3. Удаление Thin-content может принести как пользу, так и беду. Как писал @Виктор Петров - вы можете просто удалить страницы, которые раскрывают ширину семантики, что достаточно важно для продвижения. И, зачастую, если у вас недостаточный охват семантики, то вы не сможете занимать позиции по ВЧ запросам, под которые к примеру оптимизированы страницы каталога. В данном случае стоит проводить глубокий анализ страниц, и возможно, правильнее будет доработать их, а не удалить. Кстати, у вас на скрине куча дублей с GET параметрами utm_referrer и reg, то есть по сути это не "тонкий контент" а тупо некачественная настройка файла robots.txt - директива Clean-param вам в помощь (Google вообще подобную хрень не берет индекс). И да - ваш сайт trasko.ru :) проверяйте все скрины перед публикацией ;)
4. "Если микроразметка заполнена семантически правильно, в выдаче пользователь увидит расширенный сниппет с ценой, артикулом, адресом магазина — в зависимости от того, что было выделено тегами." - Не "увидит", а "может увидеть", поскольку решение о том, как, и по какому запросу будет выглядеть сниппет, будет принимать поисковая система. Вы лишь даете ей сигнал о том, что вы хотите показать больше. Если не верите - просто проанализируйте выдачу: я не раз наблюдал когда 10 из 10 сайтов в топе имеют микроразметку, а расширенный сниппет показывается у одного, максимум двух...
В целом, вы написали правильные моменты. Проблема в том, что у вас приведены некорректные примеры для подтверждения. Да и если говорить про аудит "что не так - что надо сделать", то тут индивидуально надо рассматривать каждый сайт, а если писать про общие факторы, то нужно брать те, которые присутствуют на большОй выборке сайтов и исправляются примерно одинаковыми решениями, а не как в случае с фильтром и удалением лишних страниц - что на одном сайте это может привести к подъему, а на другом - к провалу. В принципе это же касается и эмодзи - не на всех сайтах они будут показываться корректно.
За чек-лист спасибо, но почему Netpeak? Есть же бесплатный SiteAnalyzer, который не хуже все это сделает.

2

Про микроразметку - да, чё-то тут совсем не это. Мало того, что JSON-LD вывели как тип микроразметки, а не её синтаксис, так ещё и опять всё свели к сниппетам.
Выглядит так, что расширенный сниппет обеспечивается не наличием микроразметки - а тому, как ПС понимает сайт. Расширенный сниппет со всеми прибамбасами ПС может выстроить самостоятельно, без микроразметки вообще - что тот же Гугл демонстрирует постоянно. Я бы сказал, что (с учетом ряда нюансов) расширенный сниппет - это такой "значок качества" от ПС для проверенного-доверенного, понятного-приятного сайта, куда ПС ещё и от себя чего-то полезного добавит, если сочтёт важным.

1

Я вот тоже бы не рекомендовал удалять страницы, тем более старые. Их удобно проработать, часть информации переписать и оставить. Как минимум для PR. Если на сайте 100500 страниц и вы почистили 5-10 тыщ мусора, то может и есть смысл. А вот если на сайте 500 страниц и удалить 100 - это уже проблема. На месте Яндекса я бы такой сайт понизил в выдаче. А вот отредактировать - это работа в совсем другом направлении, в правильном. Википедия примером может стать.

1