База SEO-оптимизации: как поисковые системы ранжируют сайты

База SEO-оптимизации: как поисковые системы ранжируют сайты

Прим. редактора: Ранжирование веб-сайта поисковыми системами является одним из ключевых показателей релевантности ресурса в интернете. Поисковики учитывают множество факторов, которые влияют на рейтинг веб-сайта и, соответственно, на его выдачу. В наше время необходимо знать и понимать, как работают эти системы и как этим пользоваться.

Редактор: Алексей, давай начнем прямо с азов. Как эта система работает?

Алексей Пашкевич
Руководитель проектов агентства интернет-маркетинга «Business Boom»

АП: У любого веб-сайта есть определенные качества, которые в той или иной мере влияют на его поисковую выдачу. В «Яндекс» и «Google» за поисковую выдачу отвечают системы ранжирования, но они абсолютно разные.

Системы ранжирования учитывают от 800 до 1200 факторов - на их основе сайту начисляются «баллы». Исходя из балльной системы, веб-ресурс занимает установленное место по ключевым запросам, которые пользователь вводит в поисковую строку. Такой вот алгоритм, если простым языком.

База SEO-оптимизации: как поисковые системы ранжируют сайты

Каждые три месяца поисковые системы выпускают обновления, за которыми нужно внимательно следить, чтобы подстраиваться под новые условия и различные изменения.

Р: А эти факторы можно разделить на какие-то виды?

АП: Да. Группы или категории - их по разному называют.

  • Хостовые и доменные первые попадают под «лупу» роботов. Тут все просто: имя, возраст и тематика сайта;
  • Технические факторы: роботы изучают сайт на предмет багов, безопасного соединения, адаптивной (мобильной) версии, дублей и прочих деталей;
  • Затем идут ссылочные факторы. Были времена, когда на них был основной упор в SEO-оптимизации, сейчас все обстоит иначе. Резкий прирост внешних ссылок может грозить баном со стороны поисковика, поэтому этим не злоупотребляют. Наращивать ссылочную массу нужно планомерно - от этого напрямую зависит трастовость;
База SEO-оптимизации: как поисковые системы ранжируют сайты
  • Текстовые факторы стали очень важны: роботы проверяют заголовки, описания, уникальность контента и его релевантность. Главная задача поисковиков - это предоставить качественную информацию пользователю, поэтому текстовым факторам уделяется много внимания;
  • Коммерческие факторы оптимизации очень важны для коммерческих веб-ресурсов, интернет-магазинов. Без их соблюдения наладить онлайн-продажи практически невозможно. В эту категорию причисляют удобные системы оплаты и корзины, структурированные каталоги и карточки, информацию о компании, бренде и др.;
  • Поведенческие факторы: как долго пользователь пребывает на сайте, каким образом себя «ведет». Роботы учитывают юзабилити ресурса, наличие анимаций и хлебных крошек, скорость работы сайта.

Некоторые специалисты выделяют и другие категории, но эти - основные.

Р: Ух, тяжеловато. Можешь привести пример, как эти факторы работают?

АП: У «Яндекса», например, поведенческие факторы являются главными.

Возьмем ситуацию: пользователь зашел в поисковик и ввел запрос «купить собаку в Калининграде». Перешел на сайт и нашел собаку, которую он искал, а там был каталог «Авито» или аналоговый. Он созвонился, вышел с сайта и поехал забирать питомца.

В этот момент «Яндекс» понимает, что данный пользователь нашел на описанном сайте требуемую информацию по введенному запросу. «Яндекс» поднимает сайт «выше», увеличивает его рейтинг.

База SEO-оптимизации: как поисковые системы ранжируют сайты

Алгоритмы очень «умные»: они обучены анализировать поведение пользователей.

У «Google» немного по-другому структура построена, с упором на ссылочные факторы. Тут роботы пристально следят за сверхъественными «ссылочными взрывами», а наиболее важными для продвижения являются ссылки с трастовых сайтов, которые будут ссылаться на основной ресурс.

Но это не значит, что сайты не нужно оптимизировать под ключевые запросы, прописывать заголовки и описания, выполнять кластеризацию, делать перелинковку - только комплексная оптимизация дает ощутимый результат.

Р: Поисковая оптимизация работает везде одинаково?

АП: Есть одна загвоздка: в Европе и США системы ранжирования совсем другие. Первоначально тестирование любых алгоритмов запускается в этих регионах, и только потом на нас идет проекция этого тестирования. И именно у нас начинается «песня».

База SEO-оптимизации: как поисковые системы ранжируют сайты

Разрыв между заграничным тестированием и внедрением алгоритмов у нас - около 9 месяцев. Google постоянно меняет правила, тестирует и «подкручивает гайки», а результат мы получаем с задержкой.

С другими поисковиками тоже бывают «эксцессы». Недавно «Яндекс.Метрику» обновляли - функционал формирования статистики посещений «закрутили» настолько, что около 35% посетителей сайта считались ботами, а не людьми. Один фактор ранжирования сделал треть аудитории ботами.

Р: У них есть такие инструменты?

АП: Да, могут «срезать» и статистику, и трастовые показатели. Через время откатили назад, и все нормализовалось. Но в моменте многие потеряли деньги. Традиционно крупные обновления выпускают перед Новым Годом (ноябрь-декабрь) или ближе к лету.

Еще можно упомянуть кроссплатформенную адаптацию - на сегодняшний день наличие мобильной версии веб-сайта считается обязательным, а лучше иметь версии для всех устройств.

База SEO-оптимизации: как поисковые системы ранжируют сайты

Нужно следить за скоростью загрузки сайта. «Google» уже более 3-х лет говорит о том, что это один из ключевых факторов, разработал специальный сервис для проверки (PageSpeed Insights). Правда, реализовывать этот фактор «Google» начал лишь месяцев 6-7 назад. Он буквально насаждает эти требования, продавливает всю эту историю.

Точно также с бэклинками [прим. ред.: обратные ссылки]. Допустим, можно поставить 10 тысяч обычных ссылок на один ресурс, а можно поставить 8 ссылок, но с трастовых тематических сайтов. 10 тысяч ссылок не возымеют того же результата из-за плохой трастовости, заспамленности.

Раньше [прим. ред.: ну очень давно, по мнению интернета] были специальные «прогоны», делались они «XRumer»-ом - этот инструмент оставлял упоминания о сайте везде где только можно. Доходило до 100-150 исходящих ссылок на одной странице - «черное SEO» в чистом виде.

Р: Сейчас такие методы выглядят как минимум странными.

АП: Лучше меньше ссылок, но более высокое их качество. Сегодня такой формат самый верный, самый эффективный для продвижения. Если поставить не очень качественные ссылки, то потом их придется закрывать от индексации. Можно пробовать общаться с администрацией сайта, на котором стоит ссылка, и просить все подчистить, но бесплатно они ничего делать не станут.

«Ссылка же вам мешает, не нам».

Р: А ресурс, который ссылается на сайты с низкой трастовостью, получает какие-то минусы в «карму»?

База SEO-оптимизации: как поисковые системы ранжируют сайты

АП: Это и есть фактор заспамленности. Если это тематические сайты, то это одна история, а если это сайт, образно говоря, каких-то «левых, непонятных» услуг, то это другая история. Поисковые системы распознают тематику, даже если сайт - это казино или форму для знакомств. «Винегрет» из 200-300 ссылок на веб-ресурсы с различной тематикой обеспечит сайту высокую заспамленность.

Р: Вешается клеймо «мусорного»?

АП: Именно. Это его уничтожает. Никакой пользы он больше не принесет.

На тему ссылочного фактора также вспомнился старый «чит». [прим. ред.: не повторяйте, иначе перейдете на темную сторону Силы] Предположим, что у нас в распоряжении есть 50 сайтов похожей тематики, где регулярно публикуются статьи и прочий контент. Эти сайты начинают индексироваться в поисковой выдаче, получают какой-то вес, после чего на них постепенно добавляют ссылки на целевой веб-ресурс.

Что это дает? Таким способом «прокачиваются» типовые сайты, приобретают хороший ссылочный вес. Передача ссылочного веса тоже происходит по определенному формату: ссылка, которая ссылается на целевой сайт, дает 100% веса, ссылка на страницу с ссылкой на целевой сайт (на этом месте редактор выпал из контекста) дает 85% веса и так далее.

Р: Чем дальше в лес, тем больше дров…

<i>«7-ое чудо интернета»</i>
«7-ое чудо интернета»

АП: Такая иерархия называется «пирамидой ссылок». Это категория «черного SEO» - за подобные манипуляции поисковики очень сильно наказывают, банят сайты с исходящими ссылками и «сносят» целевой сайт.

Все же лучше применять разрешенные методы оптимизации и продвижения. Не надо думать, что по ту сторону интернета сидят недалекие люди - системы ранжирования сайтов совершенствуются каждый день, а роботы выявляют запрещенные механики взаимодействия с максимальной эффективностью. Будьте благоразумны и пользуйтесь только белым SEO.

66
3 комментария

Он буквально насаживаетМожет... насаждает?

1

Не так бы я это формулировал, совсем не так.
а) Ранжирование - это система фильтров. Если не брать особое внимание Гугла к хосту, то схема строится в обеих ПС на системах фильтров. Не прошёл по текстовой релевантности - ПС не будут оценивать ни ссылочные метрики, ни поведенческие, ни коммерческие. Те же поведенческие особое значение приобретают только после попадания сайта в топ-10-20, не раньше.
б) Я бы обязательно отметил, что все эти метрики имеют долю алгоритмической оценки (процентов эдак 80+) и ручную формулу, включающую как ручные корректировки, так и проверки сотрудниками поисковиков - асессорами и толокерами. Чем ближе к топам - тем больший риск повстречаться с людьми, вручную оценивающими какие-то параметры сайта.
Ну, и надо понимать, что некоторые сайты топы занимают не потому, что такие хорошие - просто там есть хостовый бонус, вручную заданный приоритет. Пальцем показывать не буду, вы знаете, о каких сайтах речь.
Ну, и пассаж про Гугл в бурже. Там ларчик намного проще открывается: корпорация добра попросту не тратит вычислительные ресурсы на нецелевые регионы, и многие страшные фильтры в рунете попросту не работают. Просто вообразите, какие ресурсы нужны, чтобы оценить ссылочный граф для одного ресурса, просчитывая веса и качества всех узлов, входящих в этот граф.

Виктор, спасибо большое за проявленный интерес к нашей статье, данная информация, описана в первом блоке статьи возможно не так расписано тезисно, как расписали Вы.За дополнение спасибо.
С некоторыми Вашими позициями я не согласен так как фактор и ресурс разные вещи.И если представить то что вы написали про гугл и сколько нужно людей что бы проверять даже и высокочастотные запросы, проще написать ПО с искусственным интеллектом который будет проверять страницы и днем ночью, что в принципе и делает Гугл. Видимо поэтому так часты его обновления.