Бойтесь и трепещите – грядет эра Core Web Vitals
Февраль, март, апрель… Три месяца отделяют SEO от следующей революции, которая грядет в мае, когда Google начнет учитывать новый комплексный сигнал ранжирования Core Web Vitals. И чем ближе эта дата, тем больше сведений о новом факторе обнародует Google…
Как все начиналось?
О том, что появился еще один сигнал ранжирования, представители поисковой системы сообщали на страницах Google Search Central несколько раз. Сначала в мае 2020 г., а затем в ноябре. В последний раз Google обнародовал дату, когда данный сигнал начнет влиять на позиции сайтов в выдаче – май 2021 г.
В публикациях отмечалось, что Core Web Vitals будет учитываться поисковиком при ранжировании вместе с остальными факторами Page Experience. Новый сигнал позволит Google оценить, насколько проиндексированная страница удобна для пользователя.
Но в отличие от остальных сигналов этот является составным, потому что в его состав входят три показателя:
Ø Largest Contentful Paint (LCP) – скорость загрузки основного содержимого веб-страницы. Эталонным LSP считается показатель в 2,5 сек. после перехода пользователя на сайт.
Ø First Input Delay (FID) – период ожидания, после которого юзер сможет взаимодействовать с веб-страницей. Идеальный FID – не более100 мс.
Ø Cumulative Layout Shift (CLS) – визуальная стабильность макета страницы. Эталонное значение – не более 0,1.
Вот только чем все эти параметры мерить? И об этом всеведущий Google уже тоже позаботился…
Не один, а целых пять!
Оказывается, что, начиная с конца мая прошлого года, Core Web Vitals уже можно мерять целыми пятью инструментами:
· В специальном отчете Search Console.
· PageSpeed Insights.
· Lighthouse – встроенный в инструменты разработчика Chrome тестер доступности страницы для пользователей (оценивает ресурс по стобалльной шкале).
Lighthouse умеет определять только два показателя Core Web Vitals: FCP и CLS. Инструмент присутствует во всех браузерах, развернутых на основе движка Chromium.
· Отчет Chrome UX – отображает обезличенную статистику, собранную с помощью Chrome.
· Chrome DevTools.
· Браузерное расширение Core Web Vitals – выводит показатели оценки страницы непосредственно в Chrome.
Последние новости с фронта
В инструментах разработчика Chrome 88, который вышел в январе 2021 г., на вкладке Perfomance теперь можно отобразить показатели Core Web Vitals. Для этого после записи производительности нужно поставить флажок в чекбоксе Web Vitals.
Как видите, Google предоставляет большой набор инструментов для измерения нового сигнала. Но при каких его показателях сайт сможет получить преимущество при ранжировании?
Во время последнего общения с вебмастерами в рамках Google Search Central Джон Мюллер ответил и на этот вопрос. Оказывается, чтобы завоевать более высокие позиции в выдаче, ресурс должен соответствовать всем критериям нового фактора. А если хотя бы один из трех параметров Core Web Vitals хромает, тогда о преимуществе при ранжировании можно забыть.
Пора готовиться
До мая осталось еще пару месяцев. Но готовиться к новым рельсам, на которые перейдет SEO, следует начинать уже сейчас. Для этого следует провести тщательный технический аудит сайта, повысить его UX, скорость загрузки страниц путем оптимизации ресурсов, кода и т.д. Хотя все это примерно. Ведь Google еще не опубликовал своих рекомендаций для вебмастеров по улучшению Core Web Vitals.
Статья от: Galaxy-it.net.
Друзья. Влияние User Page Experience и входящих в этот новый фактор сигналов Core Web Vitals, Https, Safe browsing. Mobile friendly, intrusive interstitials довольно небольшое.
Если у вас будет отличный контент, то UPE помехой не будет.
Статья написана так, будто нас ждёт опасность. Это не так.
Если у вас будет отличный контент, то ... его скорее всего украдут, а поисковики влёгкую отранжируют их выше вашего. Доказать поисковикам ничего не возможно, а биться в судах с легионом дорвеев бесполезно. Пишите контент, пишите. Большинство СМИ уже превратились в калейдоскоп рекламы, юридические порталы натурально рецептами тортов собрают НЧ трафик.
Вы про Россию или про западные рынки? Украсть контент конечно же можно. Есть даже такая тактика в негативном seo.
Всё просто по Вашей логике. Не будете создавать хороший контент, не будете ранжироваться и не будете никому интересны. Может, тогда лучше вообще не начинать?
У меня нет опыта работы с западом, а вот в ру хватает.
Не нужно, пожалуйста, приписывать мне то о чём я не говорил. Это Ваши личные выводы.
Я говорю о том, что "просто делать отличный контент" скорее всего ничего не даст. И в некотором смысле эта фраза – обман. Как бы ни упирали на "делайте хороший контент" ПС в рекомендациях и сеошники в статьях. Работает всегда комплекс мер. Качество контента, к сожалению, не является главным определяющим фактором. Более того, создавать КАЧЕСТВО экономически не целесообразно, материал в любой момент может быть украден, пропущен через авто (или ручные) рерайтеры и успешно отранжирован в очередном дорвееподобном говно-сайте, которые с помощью спец-софта клепаются сотнями при минимальных трудозатратах.
А вот что делать в этой ситуации, каждый решает сам. Это большой отдельный вопрос.
Вот скрин проверки на уникальность статьи с продвигаемого сайта: http://prntscr.com/z2mjsq. Статья была написана в 2017 году, и один раз (просто ради успокоения собственной души, был проведен рерайт в марте 2020 года). Вот скрин с метрики: http://prntscr.com/z2n3ff, где отчетливо видно, что рерайт не дал абсолютно никакого "супер результата", поскольку оценивалась не уникальность, а содержательная часть текста. В конце апреля статья была не рерайчена, а доработана (добавлены новые данные - посмотрите на скрине из метрики что это дало). Вот скрин, который показывает, что один из сайтов "своровавших" текст, закинул страницу в индекс ПС 196 дней назад, ну то есть примерно в конце июля: http://prntscr.com/z2ngxh. А теперь снова посмотрите на скрин с метрики, и убедитесь, что никакого краха не произошло, и более того - в январе начался новый рост посещаемости, при том что текст продолжает быть не уникальным. К чему это я? Да ни к чему - продолжайте заблуждаться и быть уверенным что вы правы в своем заблуждении... А пока вы так делаете - другие (такие как я) делают качественный контент и получают за это хорошие позиции + свою долю трафика. Я соглашусь с вами в том, что для Яндекса (несмотря на все их утверждения) уникальность является довольно весомым фактором, но вот только я уже прочно разочаровался в нем как в поисковике, и больше внимания обращаю на то, что интересно ПС Google, а им интересен качественный контент больше, чем циферки с адвего или текст.ру.
А умеете нахваливать себя, не пытаясь принизить других? :D
Надоели уже товарищи, которые с предмета обсуждения переходят на личности.
извините, не хотел. Подредактировал
Ок ) Внесу немного ясности:
Я не сеошник, который учился годами этом, я – заказчик, который вынужденно стал сам разбираться из-за многократных факапов разных сеошников (за мои же бабки). Каждый новый сео говорил примерно одинаковое: раньше все были не правильные, а мы умеем как надо.
Хорошие позиции у нас тоже есть. 80-100 трафика это конечно хорошо, а у Вас есть опыт повторения этого экспириенса до уровня
5к+ ? То есть, собирать статьями трафик по ядру на одном сайте. Вот у меня есть на градиенте в тысячи статей под НЧ. И картина, в целом, безрадостная. Что-то (что не спиздили) стреляет, но в большинство так или иначе уворовывается, многократно перерабатывается от вора к вору (потому что написать своё нужен хороший скилл в теме). И в итоге я вынужден конкурировать со своим же материалом, представленным в десятках рерайтов разного качества, когда рерайт узнать можно по одной и той же шутке, придающей шарм статье, которую вряд ли все авторы единомоментно придумали. Итого, учитывая немалую себестоимость 1 материала, получается банально нерентабельно делать качество. О чём я и говорил выше.
В итоге, лично я пришёл к выводу что тексты надо до сих пор делать не для людей, а для поисковиков. Конечно там уже не набор ключей, но вода водянская работает ещё как. И пока это будет сохраняться, в качестве просто нет смысла. А в идеале вообще уходить от схемы Контент > Адсенс (или РСЯ или CPA) и искать более серьёзные способы монетизации, чтобы не зависеть от поискового трафика, который сегодня есть а завтра нет по воле магических алгоритмов.
Они хоть и пытаются выдавать лучшее, но по факту легко обманываются ушлыми товарищами.
Я не стану с вами спорить. 5к плюс одной страницей для регионального коммерческого сайта - труднодостижимая вещь. Повторение опыта на других сайтах (страницах) - да есть. Спасибо что вы поделились своим опытом. Я также поделился с вами своим. Мои выводов строятся на практической выборке свыше 30 коммерческих сайтов. На всех результаты положительные. Судить о том что вы правы или не правы конкретно для вашего сайта (ниши, тематики), я не могу, не видя самого сайта и ситуации в целом. Но в плане моего опыта - качественный контент дает в любом случае положительный результат, и не зависит от того, украли его или нет (конкретно для гугла, как писал выше, на яндекс не сильно ориентируюсь). Поэтому я не согласился с вами, что писать нужно для роботов, и, уж извините, останусь при своем мнении.