{"id":14268,"url":"\/distributions\/14268\/click?bit=1&hash=1e3309842e8b07895e75261917827295839cd5d4d57d48f0ca524f3f535a7946","title":"\u0420\u0430\u0437\u0440\u0435\u0448\u0430\u0442\u044c \u0441\u043e\u0442\u0440\u0443\u0434\u043d\u0438\u043a\u0430\u043c \u0438\u0433\u0440\u0430\u0442\u044c \u043d\u0430 \u0440\u0430\u0431\u043e\u0447\u0435\u043c \u043c\u0435\u0441\u0442\u0435 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f71e1caf-7964-5525-98be-104bb436cb54"}

Бойтесь и трепещите – грядет эра Core Web Vitals

Февраль, март, апрель… Три месяца отделяют SEO от следующей революции, которая грядет в мае, когда Google начнет учитывать новый комплексный сигнал ранжирования Core Web Vitals. И чем ближе эта дата, тем больше сведений о новом факторе обнародует Google…

Как все начиналось?

О том, что появился еще один сигнал ранжирования, представители поисковой системы сообщали на страницах Google Search Central несколько раз. Сначала в мае 2020 г., а затем в ноябре. В последний раз Google обнародовал дату, когда данный сигнал начнет влиять на позиции сайтов в выдаче – май 2021 г.

В публикациях отмечалось, что Core Web Vitals будет учитываться поисковиком при ранжировании вместе с остальными факторами Page Experience. Новый сигнал позволит Google оценить, насколько проиндексированная страница удобна для пользователя.

Но в отличие от остальных сигналов этот является составным, потому что в его состав входят три показателя:

Ø Largest Contentful Paint (LCP) – скорость загрузки основного содержимого веб-страницы. Эталонным LSP считается показатель в 2,5 сек. после перехода пользователя на сайт.

Ø First Input Delay (FID) – период ожидания, после которого юзер сможет взаимодействовать с веб-страницей. Идеальный FID – не более100 мс.

Ø Cumulative Layout Shift (CLS) – визуальная стабильность макета страницы. Эталонное значение – не более 0,1.

Вот только чем все эти параметры мерить? И об этом всеведущий Google уже тоже позаботился…

Не один, а целых пять!

Оказывается, что, начиная с конца мая прошлого года, Core Web Vitals уже можно мерять целыми пятью инструментами:

· В специальном отчете Search Console.

· PageSpeed Insights.

· Lighthouse – встроенный в инструменты разработчика Chrome тестер доступности страницы для пользователей (оценивает ресурс по стобалльной шкале).

Lighthouse умеет определять только два показателя Core Web Vitals: FCP и CLS. Инструмент присутствует во всех браузерах, развернутых на основе движка Chromium.

· Отчет Chrome UX – отображает обезличенную статистику, собранную с помощью Chrome.

· Chrome DevTools.

· Браузерное расширение Core Web Vitals – выводит показатели оценки страницы непосредственно в Chrome.

Последние новости с фронта

В инструментах разработчика Chrome 88, который вышел в январе 2021 г., на вкладке Perfomance теперь можно отобразить показатели Core Web Vitals. Для этого после записи производительности нужно поставить флажок в чекбоксе Web Vitals.

Как видите, Google предоставляет большой набор инструментов для измерения нового сигнала. Но при каких его показателях сайт сможет получить преимущество при ранжировании?

Во время последнего общения с вебмастерами в рамках Google Search Central Джон Мюллер ответил и на этот вопрос. Оказывается, чтобы завоевать более высокие позиции в выдаче, ресурс должен соответствовать всем критериям нового фактора. А если хотя бы один из трех параметров Core Web Vitals хромает, тогда о преимуществе при ранжировании можно забыть.

Пора готовиться

До мая осталось еще пару месяцев. Но готовиться к новым рельсам, на которые перейдет SEO, следует начинать уже сейчас. Для этого следует провести тщательный технический аудит сайта, повысить его UX, скорость загрузки страниц путем оптимизации ресурсов, кода и т.д. Хотя все это примерно. Ведь Google еще не опубликовал своих рекомендаций для вебмастеров по улучшению Core Web Vitals.

Статья от: Galaxy-it.net.

0
71 комментарий
Написать комментарий...
Evgeni Sereda

Друзья. Влияние User Page Experience и входящих в этот новый фактор сигналов Core Web Vitals, Https, Safe browsing. Mobile friendly, intrusive interstitials довольно небольшое.
Если у вас будет отличный контент, то UPE помехой не будет.

Статья написана так, будто нас ждёт опасность. Это не так.

Ответить
Развернуть ветку
Павел Ерёменко

Если у вас будет отличный контент, то ... его скорее всего украдут, а поисковики влёгкую отранжируют их выше вашего. Доказать поисковикам ничего не возможно, а биться в судах с легионом дорвеев бесполезно. Пишите контент, пишите. Большинство СМИ уже превратились в калейдоскоп рекламы, юридические порталы натурально рецептами тортов собрают НЧ трафик.

Ответить
Развернуть ветку
Evgeni Sereda

Вы про Россию или про западные рынки? Украсть контент конечно же можно. Есть даже такая тактика в негативном seo.
Всё просто по Вашей логике. Не будете создавать хороший контент, не будете ранжироваться и не будете никому интересны. Может, тогда лучше вообще не начинать?

Ответить
Развернуть ветку
Павел Ерёменко

У меня нет опыта работы с западом, а вот в ру хватает.

Не нужно, пожалуйста, приписывать мне то о чём я не говорил. Это Ваши личные выводы.

Я говорю о том, что "просто делать отличный контент" скорее всего ничего не даст. И в некотором смысле эта фраза – обман. Как бы ни упирали на "делайте хороший контент" ПС в рекомендациях и сеошники в статьях. Работает всегда комплекс мер. Качество контента, к сожалению, не является главным определяющим фактором. Более того, создавать КАЧЕСТВО экономически не целесообразно, материал в любой момент может быть украден, пропущен через авто (или ручные) рерайтеры и успешно отранжирован в очередном дорвееподобном говно-сайте, которые с помощью спец-софта клепаются сотнями при минимальных трудозатратах.

А вот что делать в этой ситуации, каждый решает сам. Это большой отдельный вопрос.

Ответить
Развернуть ветку
Aleks Cloud

Вот скрин проверки на уникальность статьи с продвигаемого сайта: http://prntscr.com/z2mjsq. Статья была написана в 2017 году, и один раз (просто ради успокоения собственной души, был проведен рерайт в марте 2020 года). Вот скрин с метрики: http://prntscr.com/z2n3ff, где отчетливо видно, что рерайт не дал абсолютно никакого "супер результата", поскольку оценивалась не уникальность, а содержательная часть текста. В конце апреля статья была не рерайчена, а доработана (добавлены новые данные - посмотрите на скрине из метрики что это дало). Вот скрин, который показывает, что один из сайтов "своровавших" текст, закинул страницу в индекс ПС 196 дней назад, ну то есть примерно в конце июля: http://prntscr.com/z2ngxh. А теперь снова посмотрите на скрин с метрики, и убедитесь, что никакого краха не произошло, и более того -  в январе начался новый рост посещаемости, при том что текст продолжает быть не уникальным. К чему это я? Да ни к чему - продолжайте заблуждаться и быть уверенным что вы правы в своем заблуждении... А пока вы так делаете - другие (такие как я) делают качественный контент и получают за это хорошие позиции + свою долю трафика. Я соглашусь с вами в том, что для Яндекса (несмотря на все их утверждения) уникальность является довольно весомым фактором, но вот только я уже прочно разочаровался в нем как в поисковике, и больше внимания обращаю на то, что интересно ПС Google, а им интересен качественный контент больше, чем циферки с адвего или текст.ру.

Ответить
Развернуть ветку
Павел Ерёменко

А умеете нахваливать себя, не пытаясь принизить других? :D

Надоели уже товарищи, которые с предмета обсуждения переходят на личности.

Ответить
Развернуть ветку
Aleks Cloud

извините, не хотел. Подредактировал

Ответить
Развернуть ветку
Павел Ерёменко

Ок ) Внесу немного ясности:

Я не сеошник, который учился годами этом, я – заказчик, который вынужденно стал сам разбираться из-за многократных факапов разных сеошников (за мои же бабки). Каждый новый сео говорил примерно одинаковое: раньше все были не правильные, а мы умеем как надо.

Хорошие позиции у нас тоже есть. 80-100 трафика это конечно хорошо, а у Вас есть опыт повторения этого экспириенса до уровня
5к+ ? То есть, собирать статьями трафик по ядру на одном сайте. Вот у меня есть на градиенте в тысячи статей под НЧ. И картина, в целом, безрадостная. Что-то (что не спиздили) стреляет, но в большинство так или иначе уворовывается, многократно перерабатывается от вора к вору (потому что написать своё нужен хороший скилл в теме). И в итоге я вынужден конкурировать со своим же материалом, представленным в десятках рерайтов разного качества, когда рерайт узнать можно по одной и той же шутке, придающей шарм статье, которую вряд ли все авторы единомоментно придумали. Итого, учитывая немалую себестоимость 1 материала, получается банально нерентабельно делать качество. О чём я и говорил выше.

В итоге, лично я пришёл к выводу что тексты надо до сих пор делать не для людей, а для поисковиков. Конечно там уже не набор ключей, но вода водянская работает ещё как. И пока это будет сохраняться, в качестве просто нет смысла. А в идеале вообще уходить от схемы Контент > Адсенс (или РСЯ или CPA) и искать более серьёзные способы монетизации, чтобы не зависеть от поискового трафика, который сегодня есть а завтра нет по воле магических алгоритмов.
Они хоть и пытаются выдавать лучшее, но по факту легко обманываются ушлыми товарищами.

Ответить
Развернуть ветку
Aleks Cloud

Я не стану с вами спорить. 5к плюс одной страницей для регионального коммерческого сайта - труднодостижимая вещь. Повторение опыта на других сайтах (страницах) - да есть. Спасибо что вы поделились своим опытом. Я также поделился с вами своим. Мои выводов строятся на практической выборке свыше 30 коммерческих сайтов. На всех результаты положительные. Судить о том что вы правы или не правы конкретно для вашего сайта (ниши, тематики), я не могу, не видя самого сайта и ситуации в целом. Но в плане моего опыта - качественный контент дает в любом случае положительный результат, и не зависит от того, украли его или нет (конкретно для гугла, как писал выше, на яндекс не сильно ориентируюсь). Поэтому я не согласился с вами, что писать нужно для роботов, и, уж извините, останусь при своем мнении.

Ответить
Развернуть ветку
Aleks Cloud

И кстати, гляньте скрин по устройствам http://prntscr.com/z2qjw0, и оценке скорости данной страницы согласно PageSpeed Insights: http://prntscr.com/z2qsm9 (это к тому что уже полгода как пугают скоростью загрузки).

Ответить
Развернуть ветку
68 комментариев
Раскрывать всегда