Ну, вы помните: «ВЧ слишком общий и конкурентный, СЧ мы тоже сразу не потянем, давайте начнём с НЧ – там конкуренция пониже, а запросы очень конверсионные, выраженный коммерческий интент от разогретой аудитории…» – вы это либо слышали, либо сами говорили. С 2021 года это, кажется, утрачивает свою актуальность: похоже, что Яндекс открутил учёт запросного кворума. Иными словами, «хвосты» запроса он больше не учитывает, попросту отбрасывая их, и показывает результаты по самым частотным общим запросам, отдавая приоритет, конечно же, мегамаркетам. Никакого больше продвижения по «низкочастотке» – на вполне конкретный запрос Яндекс сначала покажет сгенерированное точное вхождение в своих сервисах, а потом общие странички WB, «Озон» и т.п. Даже если ничего похожего там по факту нету.
Выводы пришлись по душе, и с наступающим вас, Виктор! И всех, кто будет крепчать вместе с SEO 2022 )
Про SEO-аудиты — 100% так. У меня под конец года их накопилось четыре, на каждый потратил от трех до пяти недель с учетом сравнения с конкурентами и стратегии. Сам не ожидал таких объемов временных. В новом году себе пожелал оптимизировать сроки и процесс оформления после получения данных машинной обработки )
Общий вывод простой поиск стал работать значительно хуже чем раньше и выдача в поиске для потребителя стала менее удобной. Хотя сам потребитель думает что что наоборот.
Там всё хорошо, только найти ничего не получается. У меня любимое развлечение появилось: просто на ключах и описаниях попытаться обнаружить в выдаче что-то.
Буксует искусственный интеллект, лажает.
Порог вхождения растет, слабаки уходят, остаются профессионалы. Этому нужно радоваться, на мой взгляд, как СЕО-специлистам, так и бизнесу.
Ларёчники тоже радовались, когда ларьки конкурентов с соседней улицы сносили. Хехе.
Можете пожалуйста подробнее объяснить, что нужно проверить на сайте, который как написали: "любители колдовать над скоростью загрузки." как реально видят эту страницу поисковые роботы?
Вам понадобится парсер - я, к примеру, использую Screaming Frog Seo Spider. Там есть возможность выбрать User-Agent (скажем, эмуляцию гуглобота-смартфон) и режим парсинга. Они те так давно добавили наконец рендеринг JS. Таким образом, у вас есть возможность посмотреть, какие данные доступны для реального поискового бота при первичной и вторичной индексации.
Бывает так, что визуально на сайте всё хорошо, а по факту большая часть сайта (скажем, товарные карточки) - это полные или нечеткие дубли с точки зрения поисковых роботов. Частенько встречается.
Есть также плагин для Chrome - View Rendered Source. Делает примерно то же самое, но для конкретной страницы, в браузере. Можно выбрать UA и посмотреть разницу в "сырых" данных и отрендеренных. Выглядит вот так: