{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

Важные алгоритмы Google — список с пояснениями 🔥

Разобраться, как работает поисковая выдача и что сейчас важно Google, поможет перечень ключевых алгоритмов. Кратко поясняем, что есть что.

Привет, это PR-CY! Возьмите под контроль все, что происходит с вашим сайтом с помощью сервиса для анализа. Он будет мониторить состояние сайта, соберет URL с проблемами и будет следить за позициями в выдаче.

Google создал гайд по алгоритмам, которые используются для ранжирования по особым правилам. Мы выбрали некоторые, влияющие на позиции сайта, и дополнили полезными ссылками и пояснениями.

Понимание живых запросов

Алгоритм BERT работает на основе искусственного интеллекта, он помогает лучше понимать пользовательские запросы, написанные естественным языком.

На самом деле все эти алгоритмы призваны улучшить наше понимание естественного языка. Посредством того же BERT мы стремимся обращать внимание на предлоги и прочие языковые элементы, которые позволяют нам точнее соотносить запрос пользователя с текстовым наполнением страницы.

Главная наша рекомендация состоит в том, чтобы вы писали обычным языком.

Исключение дублей

В интернете много похожих друг на друга страниц, нет смысле выводить дубли в ответ на запрос пользователя. Система дедупликации убирает из выдачи бесполезные дубли и показывает только самые релевантные и качественные страницы.

То же касается результатов в расширенных сниппетах. Раньше страница могла попасть и в расширенный сниппет, и на обычную позицию на первой странице. Сейчас такие дубли убрали.

Страница сайта calendar.yoip.ru попала в расширенный сниппет и на первой странице она больше не встречается

Обеспечение разнообразия сайтов

С предыдущим пунктов связана и система Site diversity, которая не дает одному сайту заполнить много страниц в топе. Она группирует результаты с одного сайта, чтобы в топ попало не более двух. Поддомены и основной сайт считаются одним источником.

Нет манипуляциям с помощью запросов в домене

Алгоритм Exact match domain анализирует домены сайтов. Он определит, если веб-мастер выбрал доменное имя с вхождениями ключевых запросов, чтобы улучшить ранжирование сайта. Это считается манипулированием выдачей, так что алгоритм уменьшит значимость ключа в домене.

Ранжирование по актуальности

Система Freshness следит за тем, чтобы выдача предлагала только свежие актуальные результаты по запросам, где это важно. При запросе «Как завязать галстук» актуальность информации не важна, вряд ли способы могли устареть. А вот если человек гуглит «Где посмотреть Аватар», «заявка на ЕГЭ», «актерский состав Ведьмака», ему важно выдать свежие данные.

Результаты в топе касаются последнего сериала, хотя есть сериал 2002 года

Алгоритм определяет свежесть контента по дате публикации и обновления материалов, частоте и периодичности обновлений и масштабности изменений на странице.

Ранжирование по качеству контента

Helpful content update должен улучшить качество выдачи, чтобы там был оригинальный контент, действительно полезный для читателей и решающий их проблемы, а не просто собирающий трафик. Качественные страницы должны получить бонус, некачественные — потерять позиции.

Какой контент считать некачественным:

  • скопирован с других сайтов;
  • информация не экспертная, у автора нет реального опыта, чтобы говорить о нишевых вещах;
  • сайт заточен не под людей, а под поисковые системы.

Если алгоритм счел сайт некачественным, нужно удалить бесполезный контент. Если бесполезный контент не вернется в долгосрочной перспективе, сайт будет считаться качественным.

Ранжирование отдельных фрагментов

Система Passage ranking с помощью ИИ может анализировать отдельные блоки на странице, чтобы выводить пользователю конкретные релевантные фрагменты.

К примеру, теперь Google может определить, что конкретный фрагмент одной статьи более релевантен, чем обширная статья по этой теме:

PageRank и связь тематических сайтов с помощью ссылок

У поисковика есть системы анализа ссылок, которые оценивают, какие сайты ссылаются друг на друга, насколько оправданы такие ссылки и полезны для читателей. Подробно на ссылках останавливаться не будем, предлагаем дополнительные материалы:

Отдельно упомянем, что PageRank не мертв, он актуален и в 2023 году как показатель весомости ссылочного профиля, хоть сам счетчик PR и давно скрыт от пользователей.

Понимание сложных запросов

Технология MUM (Multitask Unified Model) помогает поисковику справляться с запросами, на которые нет простого ответа. Пока она используется в некоторых местах поиска. Веб-мастеру ничего особенного делать не нужно, это касается улучшения выдачи для пользователей.

К примеру, благодаря мультиязычности MUM ищет может искать ответы на англоязычный запрос про гору Фудзи в информации на японском языке, поскольку там она более точная. Подробнее про технологию:

Сопоставление запросов и страниц

С помощью ИИ работает Neural matching — способ классификации запросов и страниц с контентом, чтобы сопоставлять подходящие друг с другом. Это тоже должно повлиять на выдачу и сделать ее более качественной, чтобы понимать пространные запросы пользователей, сформулированные естественным языком.

Связь запросов с понятиями и концепциями

Система RankBrain с помощью ИИ улучшает выдачу по запросам, где нет прямых вхождений ключевых слов. Даже если на сайте с релевантным контентом не будет нужных вхождений, сайт все равно попадет в топ благодаря распознаванию связей запроса с концепциями.

Например, по запросу «как общаться с Есениным» Google выдает не спиритические сеансы, а информацию по соционике, поскольку понимает, о чем запрос и что в данном случае означает «Есенин»:

Определение уникального контента

Google стремится выводить в топ уникальный контент, чтобы на авторах оригинальных материалов не паразитировали другие площадки. С помощью системы Original content поисковик дает предпочтение первоисточникам. Он анализирует hreflang и canonical.

Понижение рейтинга из-за удаления контента

Google удаляет из выдачи контент, нарушающий авторские права или затрагивающий персональные данные. Система удаления называется Removal-based demotion.

Если в отношении материалов сайта поступает много запросов на удаление контента, это сигнал, что сайт не очень качественный, так что и остальные страницы могут понизить в выдаче Google.

Поводы понизить позиции остальных материалов сайта:

  • много жалоб на нарушение авторских прав;
  • есть жалобы на клевету, подделки, мошенничество и другие;
  • запросы на удаление контента по решению суда;
  • множество запросов на удаление персональных данных;
  • требования платы за удаление персональных данных;
  • много запросов на удаление контента, размещенного в целях доксинга.

Производительность и удобство страниц

Page experience анализирует пользовательский опыт на странице: насколько пользователю на ней безопасно и удобно выполнять свою задачу.

В него входит мобилопригодность сайта, наличие HTTPS, отсутствие навязчивых попапов и быстрая загрузка. Причем не общая скорость загрузки страницы, а показатели Google Core Vitals, которые охватывают этапы загрузки: отрисовка самого большого элемента, скорость реакции на первое действие, сдвиги макета при подгрузке контента.

Подробно мы разобрали Google Core Vitals в статье:

Нет смысла улучшать скорость, если она и так хорошая. Google обращает внимание на прохождение определенного порога: если сайт прошел порог нормы, это плюс, но остальные улучшения роли не сыграют.

Улучшить страницу можно своими силами с помощью онлайн-инструмента. Он бесплатно анализирует SEO-параметры, проверяет доступность ссылок и картинок, собирает ошибки, так что вы сразу увидите, что нужно исправить:

Фрагмент общей оценки
Фрагмент проверки ссылок

Ранжирование отзывов о товарах

Product Review анализирует качество обзоров и отзывов на товары. Преимущество в выдаче должны получать качественные отзывы, подготовленные экспертами или пользователями, которые разбираются в вопросе.

Что характеризует качественный отзыв/обзор:

  • доказательство, что отзыв написал человек, который что-то понимает в теме;
  • подробный анализ;
  • оригинальное исследование — свой опыт;
  • несколько ссылок на разных продавцов, чтобы у читателя был выбор;
  • информация об аналогах;
  • сравнение с прежними версиями продукта;
  • медиа для доказательства — фото, видео;
  • ссылки на дополнительную информацию.

Если есть прилагательные в превосходной степени (лучший в чем-то товар), то нужно доказать, почему вы его так назвали.

Если делаете подборку или рейтинг, то есть рассказываете о нескольких товарах, для каждого нужно описание.

Подробнее про ранжирование отзывов и требования Product Review в статье.

Безопасность и авторитет контента

Система Reliable information выбирает авторитетный контент. Здесь используют E-A-T —экспертность, авторитетность и достоверность контента. Мы подробно разбирали тему в статье.

Сейчас поисковик обновил параметры, превратив их в E-E-A-T — добавился опыт (experience).

Поисковик использует E-A-T для оценки страниц с контентом, который:

  • может навредить читателю, его близким или обществу в целом. Например, убедит его отказаться от лечения или расскажет о создании взрывоопасных устройств;
  • не заслуживает доверия, то есть автор не разбирается в теме, и не имеет опыта. К примеру, о жизни с каким-либо синдромом мог бы рассказать не врач, а сам больной, это было бы нормально. Но если о нем говорит посторонний человек, у него нет экспертизы.
  • спамный.

Такие страницы будут считаться некачественными и потеряют позиции. А если их будет много на одном сайте, то и весь сайт просядет.

Выводы:

  1. Пишите естественно, как люди говорят. Поисковые системы анализируют информацию с помощью ИИ, так что хорошо воспринимают живой язык.
  2. Старайтесь делать лучше, подробнее и релевантнее, чем у конкурентов, иначе алгоритм может счесть страницу дублем и не покажет в выдаче.
  3. Не думайте, что ключ в домене вам сильно поможет — Google сочтет это манипуляцией и снизит его значимость.
  4. Отслеживайте устаревающие материалы и актуализируйте их, на сайте должна быть свежая информация по запросам, для которых это важно.
  5. Удаляйте мусор, скопированные материалы, сеошные тексты.
  6. Работайте над ссылками и качеством ссылочного профиля, это совет на все времена.
  7. Стремитесь создавать уникальный контент, старайтесь дополнить информацией то, что берете у первоисточника.
  8. Соблюдайте авторские права, не размещайте персональные данные без согласия их владельцев, соблюдайте закон — частые жалобы повлияют на позиции всего сайта.
  9. Проверяйте, насколько удобно пользоваться вашим сайтом, безопасен ли он для ввода данных, быстро ли загружается.
  10. Если публикуете отзывы или обзоры товаров, обратите внимание на критерии качества, чтобы выйти в топ. Обосновывайте свое мнение и компетенции.
  11. Критически отнеситесь к своему контенту: оцените, может ли он навредить, показали ли вы, что можете рассуждать на эту тему, есть ли у вас знания и опыт.
  12. Мониторьте состояние сайта с помощью онлайн-сервиса: он упростит работу и сэкономит время на поиск URL с ошибками, покажет прогресс на графике позиций и будет присылать сводку о состоянии сайта, чтобы вы полностью контролировали ситуацию.

Будем благодарны за оценку материала и конструктивный комментарий!

0
9 комментариев
Написать комментарий...
Чайка О.

Тем временем

Ответить
Развернуть ветку
Олег Гурин

Лучший комментарий!))

Ответить
Развернуть ветку
Чайка О.

Лучший из одного!

Ответить
Развернуть ветку
Александр Сергеевич

Вместо того, чтобы работать над улучшениеями, всё идёт в обратную сторону - вебмастеров ущемляют со всех сторон, не дают работать вебмастерам. С каждым разом только "удушения" и ничего хорошего. ИИ - он мне что шёл, что ехал! Пользы никакой! Когда же всё развернётся в лучшую сторону, когда наконец-то перестанут "душить" вебмастеров?

Ответить
Развернуть ветку
John Nobody

Ну, узнали, какие алгоритмы, и дальше что? После каждого апдейта на форумах тонны "очень умного анализа", по сути просто болтовня. Просто делай сайт, как обычные люди, и тебе повезёт (а может, и нет). Но эта мышиная возня с алгоритмами точно не поможет.

Ответить
Развернуть ветку
Водяной

Одно и тоже из года в год

Ответить
Развернуть ветку
Viacheslav Varenia

Для автора.
Алгоритмы, технологии и их обновление != "Важные алгоритмы".

Ответить
Развернуть ветку
Алексей из LOADING.express

"Нет смысла улучшать скорость, если она и так хорошая"

— Спасибо, КЭП.

Ответить
Развернуть ветку
Elena Zhmurina, PR-CY

Имеется в виду, что есть некий порог, после которого улучшения скорости не интересуют поисковик. Но многие владельцы сайтов хотят допилить до максимальной оценки пейджспида, надеясь, что будет какой-то буст. А его не будет) Хорошо, что для вас это кэпство, но не для всех так.

Ответить
Развернуть ветку
6 комментариев
Раскрывать всегда