Почему падают топовые запросы? Ключевые проблемы + кейсы с решением
Отсутствие трафика – одна из распространенных проблем сайта, даже если он имеет внятную структуру и удобную навигацию. Причин при этом может быть множество: во время аудита мы находим как технические недочеты, так и проблемы с контентом. По итогу получается так, что ресурс плохо индексируется и не выходит на высокие позиции в выдаче.
Но как найти и устранить причины отсутствия или проседания трафика? Рассмотрим 5 основных проблем ранжирования, которые негативно влияют на развитие сайта.
Проблема 1. Попадание под санкции поисковых систем
Алгоритмы поисковиков формируют объективное представление о качестве той или иной странице на основе пользовательского опыта. И для сайтов «нарушителей» предусмотрен целый ряд ограничивающих мер. Санкции приводят к падению трафика или даже полному исключению из индекса поисковой системы. Позиции при этом ощутимо проседают: потери могут составлять от 20 до 100+ позиций.
Причин попадания под фильтры поисковиков немало:
использование скрытого текста;
всяческий спам, в том числе ключевыми запросами;
размещение неестественных ссылок;
низкая уникальность контента;
большое количество рекламных баннеров;
- и другие негативные факторы.
Проверить попадание под фильтры можно через специальные сервисы вебмастеров: Яндекс.Вебмастер или Google Search Console. Также, стоит понимать, что не обо всех причинах пессимизации позиций сайта будет написано в вебмастерах поисковых систем. Для выявления причин проседания, часто оптимизатору приходится использовать весь свой опыт и знания. Но это тема для отдельной статьи.
После выявления причины, следует направить усилия на ее устранение. Например, при переоптимизации придется удалить/изменить контент и ждать, пока фильтр обновится. Но будьте готовы, что это случится не быстро – в зависимости от ситуации проверка и индексация поисковыми роботами может занимать от пары недель до нескольких месяцев.
Проблема 2. Плохая индексация страниц
Индексация – важнейший процесс, при котором в базу данных поисковой системы добавляется информация о ресурсе. Без него страницы не получат трафик и позиции в выдаче.
Наиболее распространенная причина плохой индексации, которую мы часто находим во время аудита – неправильная настройка robots.txt. Это текстовый файл, в котором хранятся определенные указания для роботов поисковых систем. И зачастую при оптимизации страниц или исправлении недоработок в robots.txt закрывают важные для индексации страницы.
Для обнаружения проблем с индексацией используют те же SEO-инструменты: Яндекс.Вебмастер и Google Search Console. С их помощью можно увидеть, какие именно страницы не индексируются поисковиками. И при проблеме с файлом robots.txt они будут закрыты директивой Disallow, которая выглядит примерно так:
- User-Agent: Googlebot
- Disallow: */index.php
- Disallow: */section.php
Чтобы открыть доступ поисковым роботам к сканированию, достаточно убрать директиву с нужных страниц. После этого трафик по запросам должен увеличиться.
Однако плохая индексация связана не только с файлом robots.txt. Проблемы могут крыться в неправильной настройке noindex и мета-тегов, ошибках сканирования, неполадках хостинга и многом другом. Поэтому в первую очередь нужно найти причину, понять следствие. И по итогу не допускать того, чтобы с индексацией сайта были проблемы.
Проблема 3. Технические ошибки
Еще одна причина проседания или отсутствия трафика – технические ошибки, среди которых:
дублирование контента;
пустые метатеги;
низкая скорость загрузки страниц;
некорректная настройка редиректов;
- отсутствие мобильной оптимизации.
Если не исправлять технические ошибки, со временем они накопятся, снизив качество сайта как для пользователей, так и поисковых систем. Поэтому нужно проводить регулярный SEO-аудит и устранять внутренние проблемы. Помочь могут также специальные сервисы, например – Serpstat. Его инструменты позволяют изучить ресурс на предмет внутренних ошибок. Но исправить их и дать рекомендации по улучшению ресурса сможет только SEO-специалист.
Проблема 4. Давление со стороны конкурентов
Даже хорошо оптимизированный сайт, отвечающий требованиям поисковиков и запросам пользователей, не застрахован от мощных конкурентов. Поэтому SEO-продвижение должно стать постоянным процессом, ведь оппоненты тоже не стоят на месте.
Для эффективной борьбы важно постоянно мониторить конкурентов в выдаче, находя их слабые и сильные стороны. Акцент стоит сделать на следующих моментах:
качество контента;
структура сайта;
количество продукции;
источники трафика;
удобство использования;
ссылочная масса;
продающая составляющая, конверсионный путь;
- техническая оптимизация: скорость загрузки, адаптивность и т.д.
Такой анализ позволит составить или скорректировать стратегию продвижения для понимания того, в каком направлении стоит двигаться бизнесу.
Искать конкурентов для анализа можно вручную или с помощью специальных сервисов, например, того же Serpstat. В первом случае изучают поисковую выдачу, поочередно вводя ключевые запросы и записывая сайты в топе.
Такой способ потребует больших временных затрат, а точность данных зачастую хромает. Поэтому лучше использовать сервисы вебмастеров для быстрого поиска конкурентов и сравнения показателей ранжирования. Основная цель при этом должна быть одна – сделать сайт лучше и удобнее для пользователей.
Проблема 5. Плохая проработка факторов E-A-T
E-A-T означает экспертность, авторитетность, достоверность. Совокупность этих факторов определяет качество контента в Google. Поэтому при падении позиций или отсутствии трафика важно прорабатывать каждый показатель:
Экспертность. Для улучшения показателя придется поработать над контентом: он должен быть уникальным, полезным, отвечать на вопросы пользователей. Написание или редактирование статей лучше доверить эксперту. Например, для медицинских сайтов автор должен иметь образование соответствующего профиля.
Авторитетность. Тесно связана с экспертностью и позволяет алгоритмам убедиться, что контент создает специалист в своей области. Для этого в статьях указывают имя и фамилию автора, добавляют фото, дипломы, сертификаты. Помимо этого, авторитетность оценивается вне сайта. Чем чаще появляются упоминания на других ресурсах, тем выше показатель.
- Доверие. Сайт должен быть надежным, поэтому надо дать пользователям максимум достоверной информации. Достаточно заполнить разделы с подробным описанием компании, отработать отзывы клиентов, добавить раздел FAQ, разместить ссылки на соцсети. Также доверие к сайту повышается с помощью исходящих ссылок на авторитетные ресурсы.
Проработка этих факторов необходима для улучшения позиций не только в Google, но и Яндексе. Ведь российский поисковик при оценке сайта тоже учитывает доверие, удобство, качество сайта. К тому же, далеко не каждый заботится о проработке E-A-T, а значит шанс на выход в топ повышается в разы.
Однако важно понимать, что факторы E-A-T хоть и учитываются для сайтов любых тематик, но не для всех имеют одинаковый вес. В одних источником информации могут быть обычные люди с жизненным опытом, а в других ценится только экспертное мнение.
Резюмируя
Падение трафика связано с множеством проблем: от технических ошибок до вытеснения со стороны конкурентов. Поэтому так важно регулярно проводить SEO-аудит, находить слабые стороны сайта и прорабатывать их: улучшать структуру, повышать надежность и многое другое.
Господи, какая дичь. Какой E-A-T? Какой robots? Какие происки врагов?
90% всех проблем - непроработанная семантика, тянущая вниз текстовую релевантность, а за ней - и коммерческие метрики.
Простейший и тупейший пример: половина сайта релевантна фактически любому запросу из СЯ, и ПС просто не видит, какая страница тут - целевая.
Серия "Легенды и мифы" перманентно пополняется рерайтом рерайта )
Сначала порадовалась наличию ссылок на кейсы. Почитала кейсы...
Они ни разу не иллюстрируют тезисы данной публикации. Просто проекты для подтверждения экспертизы компании.
Хотя работаете, наверное, нормально - комплексно, как и положено в 2022 году. Но статья-то про другое.
Между прочим, и заголовок не к этой публикации. Хотя по выдаче есть 3 совпадения, они всё-таки про посещаемость.