Ускорение сайта или вред для SEO: отложенная загрузка метрик и ее влияние на показатель отказов
Решение написать пост было принято ввиду популяризации статей на тему ускорения сайтов на vc.ru и сотен комментариев под материалами в разделе SEO.
Во всех постах дублируются известные приемы оптимизации страниц сайтов вроде lazyload загрузки изображений, кеширования, GZIP и др., которые в "пузомерках" вроде Google Pagespeed Insights дают небольшой прирост, но на деле реально эффективны.
Для достижения вожделенной "зеленой зоны" (оценки 100/100 по тестам Pagespeed Insights), остается нерешенным вопрос долгой загрузки и блокировки страницы сторонними скриптами метрик (Google Analytics, Яндекс.Метрика, Facebook Pixel и другие).
Единственное предлагаемое решение - отложенная загрузка и выполнение данных скриптов. Но насколько такой подход оправдывает цель?
Более глубокого изучения данное решение не удостоилось, поэтому пришла мысль провести "коллективную дискуссию" - приглашаю вас в комментарии.
Вопрос достаточно емкий, и без небольшого бэкграунда не обойтись, поэтому разделим его на следующие тезисы (от общего к частному):
- цель оптимизации сайта (влияние скорости загрузки на SEO);
- объективность оценок сервисов Google Pagespeed Insights и подобных;
- отложенная инициализация метрик и показатель отказов.
Возможно, данный вопрос не настолько острый и важный, чтобы писать для него отдельный материал, но:
- в комментариях тесно для изложения мыслей на этот счет;
- интересно разобраться в вопросе основательно.
Простите за долгое предисловие, не планировал лонгрид. Это не гайд (инструкция), не кейс (разбор), а скорее ресёрч (исследование).
Зачем ускорять сайт, и как оценить результат?
Прежде чем приступать к любой работе - важно понимать, какую цель преследует данный манёвр. Простыми словами - зачем это нужно?
Смысл оптимизации скорости загрузки сайта заключается в следующем:
- улучшить опыт пользователя - сократить время ожидания загрузки страницы, и тем самым минимизировать показатель отказов;
- в следствии п.1. ожидать преференции от поисковых систем в выдаче (не только благодаря быстрой загрузке, но и улучшению ПФ - снижению показателя отказов).
В целом тезисы ясны, но что считать быстрой загрузкой? Да, необходимое время загрузки в 1-2 секунды, и красивый график с показателями отказов все видели.
НО! К сожалению, показатель скорости загрузки сайта зависит от множества факторов:
- тип устройства и его мощность (ПК, планшет, смартфон);
- заявленная скорость интернет соединения (провайдер);
- фактическая скорость (загрузка канала, качество сигнала и т.п.).
Следовательно, говорить об абсолютной оптимизации и постоянной скорости загрузки не представляется возможным.
Однако, существуют популярные сервисы замера скорости загрузки сайта. Насколько в таком случае точна их оценка? Стоит ли гнаться за 100/100?
Проверка скорости загрузки сервисами
Такие инструменты как Google Pagespeed Insights (и другие, на базе Lighthouse), используют для своих тестов эмуляцию конкретных устройств, которые, по их мнению, подходят для этого.
Интересно было бы узнать, как проходит отбор таких устройств. Возможно, по усредненным техническим характеристикам, или по популярности распространения устройств, схожих по ТХ.
Интересно, что на сегодняшний день, в Lighthouse для тестирования скорости загрузки сайта используется устройство 2016 года выпуска - Motorola Moto G4 на базе процессора Snapdragon 617 от 2015 года.
При этом используется достаточно хорошее интернет соединение - 1,6Mbps/750Kbps - эквивалентный медленному 4G или быстрому 3G. Тестировали бы уже на EDGE. 🙃
Конечно, для гиков гаджеты - это все, и ориентироваться на работников сферы IT было бы не верным решением.
Но в эпоху, когда Apple наполняет рынок десятками моделей смартфонов, соревнуясь с Xiaomi, Samsung и Huawei у кого телефон более бюджетный, при средней комплектации, ориентироваться на Moto G4, кажется, тоже не совсем корректно.
Для получения реальных данных по мобильным устройствам, использующихся аудиторией вашего сайта, перейдите в Google Analytics - Аудитория - Мобильные устройства - Устройства.
Немного про железо
Проанализировав топ мобильных устройств своего сайта и, на основании технических данных этих устройств, сравним процессоры и их производительность с процессором Snapdragon 617, установленным в Moto G4, используемом в тестах Lighthouse.
Конечно, Snapdragon 625 не самый мощный процессор, но все-таки мощнее Snapdragon 617, (возможно, из-за обновленного техпроцесса 10 нм). Не претендую на ученую степень инженера микропроцессоров, поправьте в комментариях.
В любом случае, Redmi Note 4 (на Snapdragon 625) - одно из самых устаревших устройств в списке аналитики, а в синтетических тестах замедление еще больше.
Таким образом, фактическая проверка оптимизации сайта, содержащего "современные" скрипты отслеживания (последнее изменение было в конце 2017 года), которые предлагает сам Google, проводятся на устройстве выпущенном в начале 2016 года. (голосом Михалкова) Иронично! 🙃
Данное сравнение, относительно поверхностно, важно учитывать и другие параметры, но в целом использование такого устройства кажется немного устаревшим.
То есть синтетические тесты проводятся на очень устаревшем устройстве. Разумеется, есть не такие благополучные страны/города/районы/люди, и кто-то еще использует кнопочные аппараты, но ориентироваться на эту аудиторию странно, нет?
Отложенная загрузка метрик
Хватит же погружения в технически детали! Мы здесь, чтобы разобраться что делать и "как дальше с этим жить". Как достичь 100/100 по Pagespeed Insights?
Предлагаемое решение - отложить выполнение скриптов метрик для достижения эффекта быстрой загрузки, реализуемое следующим простым кодом:
Код можно модифицировать по-разному:
- менять время задержки;
- менять событие, по которому будет выполнятся код.
Сути это не меняет, но можно найти множество подобных решений (некоторые даже продаются). Бесплатно, без смс и регистрации можно почитать тут:
Как это работает: при загрузке страницы будут загружены и выполнены все стили и скрипты, кроме отложенных. Отложенные скрипты будут загружены и/или выполнены через какое-то время (например, 0.5-1 секунду) или по действию пользователя (при прокрутке страницы, например).
Используя данный код, скорость загрузки страницы безусловно повысится в PageSpeed Insights, поскольку скрипты не будут выполнятся сразу, но:
- будет ли наша статистика такой же точной?
- как следствие - не вырастет ли показатель отказов?
- как следствие - не будет ли понижен ресурс в поисковой выдаче?
Можно уверенно сказать - часть посещений потеряется. Да, это могут быть незначительные визиты, до 1 секунды, боты и т.д. Но эти показатели тоже важны для поисковых систем.
Также, фактический объем скриптов не меняется, то есть нельзя сказать, что будет ускорена загрузка, поскольку код выполнится, но позже. Для сравнения, отложенная загрузка изображений позволяет загружать их по факту востребованности.
Отложенным вызовом можно снизить пиковую единовременную нагрузку на процессор, распределив выполнение кода, не более того.
Из поиска по запросам "lazyload google analitycs" можно найти один очень старый (2011 год), но от этого не менее информативный, пост на Stackoverflow:
Другой информации, относительно изменений показателя отказов ввиду отложенной инициализации скриптов метрик, не удалось найти, кроме пары статей про ускорение сайта и статей на малазийском.
Вывод и опрос
Работать над скоростью загрузки сайта нужно, поскольку она влияет на пользовательский опыт, что несомненно улучшит и поведенческие показатели, и как следствие, положительно скажется на позициях.
Однако, данный показатель немного переоценен, поскольку существуют более весомые факторы ранжирования, и ожидать значительного эффекта не стóит.
Синтетические тесты предоставляют инструмент для ориентира, не более того. Но не стóит создавать сайты на шаблонах за 200$ с десятками ненужных скриптов и стилей, слепленных на коленке.
Решение об оптимизации сайта до "зеленой зоны" - не всегда верное и выполнимое в текущих реалиях, все зависит от:
- типа сайта и контента;
- целевой аудитории.
Техника отложенной загрузки скриптов метрик, как решение с целью достичь 100 баллов, вызывает сомнения, поскольку в теории можно получить негативный эффект, и как следствие, в позициях тоже.
А что скажете вы, коллеги?
А вы проводили исследования по влиянию количества набранных баллов PageSpeed Insight на позицию в поиске? По моим данным для Google корреляция с позицией такая, что можно особо не заморачиваться с оптимизацией. На изображении по оси X позиция в поиске от 1 до 20, по оси Y - количество набранных баллов.
Заморачиваться для позиций со скоростью пока не надо.
А если вы для Яндекс стараетесь, то вообще не парьтесь.))
Некоторые бренды делают сайты для людей и там скорость важна, а медлительность критична.
Нет, спасибо за предоставленный график.
Ну за 10кой скорость медленне. Да и надо с фонами сравнивать, как в исследованиях Ашманова. Вопрос, как сильно влияет.
Не вижу ничего страшного в отложенной загрузке метрик, это никак не скажется на поведенческих. Большинство роботов и так известны ПС. Они их заходы не считают посетителями.
Но!!! Никакого прироста производительности сайта это не даст! GA не обсаживает скорость вообще никак (незначительно настолько, что это смешно!), а с яшиной метрикой ЗАЕ**ТЕСЬ вы бороться!! Эта шляпа, как ни крути, куда ты её не откладывай, один хрен mobil скорость обсаживает на 20-30% по speed test Google!
Вообще, метрики, это не самое страшное, большинство сайтов страдают из за css и картинок. Ну а если у вас сторонние скрипты на сайте (та же подтяжка товаров от партнёров), то это вообще жопа!
Самое прикольное, что скорость загрузки влияет на ранжирование сайта в 100500 ю очередь! При прочих равных более быстрый сайт в выдаче будет выше.
Потому, господа, не парьтесь из за метрик. Вообще! Чтоб попасть в топ, зелёной зоны недостаточно!!!
Да, обращаясь к автору, Никита!, тебе ли не известно, 100/100 даже голый Google не даёт! Последний тест его же инструментом, показал 98/100.
То есть получается отложенная загрузка приводит просто к "очищению" статистики.
По поводу оптимизации метрик: да, мы рассматриваем и Яндекс.Метрику тоже - ею тоже пользуются. Но на google analytics PageSpeed тоже реагирует (кеширование, неиспользуемый код, влияние стороннего кода и т.д.)
Прирост скорости - да, фактическое количество кода остается таким же, но все ж SEOшники первым делом проверяют наличие "зеленой зоны" и начинаются пляски :)
CSS и картинки решаются исключением шаблонов и lazyload (про это уже исписался), а вот то что влияет это в последнюю очередь - это полезно будет узнать всем требующим минимум 90/100.
Про идиотию в этом тесте писал еще в феврале 2015 года, пока это еще не стало мейнстримом. С тех пор много воды утекло и я многому научился, в том числе и статьи писать лучше, а Pagespeed каким был - таким и остался. 🤣
Влияние на попадание в топ никчемное, но если ближайший конкурент к вам сидит выше и уверенно, то этот пункт в ранжирование зароляет.
Вообще нужно понимать, что влияние пузомерок растёт от года к году, появляются инструменты в серч консоле, а это не стали бы делать просто так, потому что нечего больше делать.
Конечно, гнаться бездумно за 100/100 на существующем проекте глупо, но что касается новых - мастхэв.
Абсолютно согласен, что устройство и троттлинг у лайтхауса немного жестковаты, поэтому мы используем немного другую эмуляцию, процессор в 2 раза быстрее, чем у пейджспид, сеть примерно на том же уровне.
Точность метрик Аналитикс и Яндекса снижается, но мы откладываем её не на 3500 мс, как в статье, а на 200-600 мс. Спросите в чем тогда смысл? Смысл в том, чтобы дать время выполниться без соединений и работы с DOM другим нужным для FCP и LCP элементам, и поставить выполнение внешних скриптов в конец очереди. Хотя бы сместить их на несколько позиций.
Чаты и попапы смело можно на 5-10 секунд откладывать, чтобы дать время выполниться родным скриптам сайта, которые нужны для отрсовки родного содержимого и взаимодействия с ним.
Откуда вообще эта идея в отложке? Это не для того, чтобы синтетика не ловила эти скрипты, а в том, что реальные пользователи выполняют родные скрипты сайта раньше чем сторонние. Однако этот подход практически бесполезен, если внутренние js-скрипты выполняются 10 секунд и на странице инициалиируется 10 слайдеров, при помощи плагина к библиотеке с кучей зависимостей.
Поэтому первоначально обязательно нужно оптимизировать СВОЙ КОД. Переработать, переосмыслить и то, что нельзя оптимизировать — тоже нужно откладывать по времени, или по действию пользователя.
Например, зачем грузить видео ютуба в айфрейм и целый плеер, если не каждый пользователь нажмет на play. Откладываем до клика на изображение видео. Всё.
Вообще, все соединения лучше вести через свой домен и не устанавливать внешних соединений, потому что это едва ли не самая ресурсоемкая операция. Можно потратить ресурсы на установку соединения, а потом гораздо быстрее выкачать картинку в 1 мегабайт.
Задача как раз сделать быстрее отрисовку первого экрана, снизить нагрузку на основной поток, растянуть нагрузку по времени, тем самым избежать лонг-тасков и блокировки потока более 50 миллисекунд.
По внутренней оптимизации.
Иногда инициализация одного внутреннего слайдера может занимать 2-3 секунды, так как приходится ждать ответа от бакенда, или загружать 1-2 библиотеки и существенно изменить DOM, вызвав тем самым перерисовку несколько раз подряд.
Простое изменение порядка работы с DOM может существенно снизить время выполнения задачи.
Пример:
вместо того, чтобы вставлять в страницу 10 элементов, вставляем один, который уже содержит эти 10 элементов, что уже вызовет одну перерисовку, вместо 10. Лучше конечно вообще не менять DOM из js без ведома пользователя.
В крайнем случае добавлять, но не менять. Это позволит еще и контролировать CLS, так как все элементы будут стилизованы без js.
Изменения css-свойств также может вызывать перерисовку всего содержимого. Нужно быть аккуратнее и не менять свойства своим js скриптом после загрузки страницы, оставив это на момент взаимодействия с элементом.
Я находил как то плагин для WP, который как раз откладывает выполнения скриптов (как раз чаты, попапы и тд) до взаимодействия с пользователем. Название - Flying Scripts by WP Speed Matters
видео по нему на Ютюб
По поводу снижения баллов за Яндекс.Метрику.
20-30 баллов Метрика может снять только в случае, если поток занят перерисовкой или выполнением скриптов уже после загрузки страницы. До крутизны Analytics ей достаточно далеко, и блокирует поток она на 300-600 миллисекунд, при троттлинге 4х на макбук PRO.
Но ребята занимаются и стараются оптимизировать скрипт Метрики. Если на странице вообще нет JS, то вставка метрики и аналитики снизит показатели PageSpeed незначительно, оставив их в зеленой зоне.
Пример:
https://3-секунды.рф — тут вообще без отложки метрики. Делаем 10 перезамеров PageSpeed и получаем 95-99 баллов.
В нашем случае отложка внешки не нужна. Так как загрузка внешнего скрипта начинается гораздо позже, чем отрисовка всей страницы. А любая попытка преконнекта или прелоада снизит оценку в желтую зону, так как соединение начнет блокировать поток раньше, чем необходимо.
Спасибо за комментарий, наконец-то дождался от вас какой-то конкретики.
Точность метрик Аналитикс и Яндекса снижается, но мы откладываем её не на 3500 мс, как в статье, а на 200-600 мс. Спросите в чем тогда смысл? Смысл в том, чтобы дать время выполниться без соединений и работы с DOM другим нужным для FCP и LCP элементам, и поставить выполнение внешних скриптов в конец очереди. Хотя бы сместить их на несколько позиций.Точность, как уже определили до нескольких процентов не страшно, и конечно 3,5 секунды это много, это код для примера. Но нагрузка же все-равно остается? Конечно влияние стороннего кода уменьшится, но пункты:
- "Удалите неиспользуемый код JavaScript"
- "Минимизируйте работу в основном потоке"
- "Сократите время выполнения кода JavaScript"
по идее никуда не денутся.
Для видео с ютуба есть лайфхак (параметр srcdoc у тега iFrame) - посмотрите на этой странице, например: https://rubika.com.ua/blog/skolko-stoit-sozdanie-sajta-ceny-na-sajt-v-2020-godu#konstruktor-saytov-tilda-publishing
Но! Кстати для решения внешних соединений, почему бы не использовать link rel="dns-prefetch" или "preconnect" (подробнее в статье: https://habr.com/ru/post/445264/), безусловно, речь про аналитики и другие внешние скрипты, КОТОРЫЕ ОПРАВДАНЫ, а не картинка с чужого сайта)
Нужно ли рассматривать в качестве отказа неучет посещения ботом длительностью менее нескольких секунд? Бот, очевидно, не пытался ничего полезного сделать.
Поэтому потеря посещений если и произойдёт, то только на такие мусорные посещения. Совсем не страшно
Получается, таким образом, вообще можно «подстраивать» статистику под пожелания. Сделать показатель отказов = 0.
Сделать отложенную загрузку на 10 (подставляем среднее время большинства мусорных посещений) секунд и если пользователь не очень заинтересован - просто посмотрел и вышел - не будет отказа.
Не расценивается ли такое решение как попытка манипуляции со статистикой? Накрутка пф, возможно?
Я понимаю, поисковые системы ведут аналитику и у себя, соответственно, они получат более полную картину при переходе с поиска, но что на счет таргета, реферальных переходов? И пр.
То что показатели теста PageSpeed (а именно один из них - FCP) влияют на ранжирование уже статистически доказано. Вот исследование https://pro100blogger.com/2020/12/google-december-2020-core-update.html
Кроме того в личной переписке коллеги мне кидали примеры, когда удалось восстановить позиции сайта после оптимизации скорости.
Так что да - заниматься оптимизацией нужно, но разумно.
Ну и, пользуясь случаем, напомню что мы разработали WordPress плагин для отложенной загрузки счётчиков статистики, в том числе и Яндекс Метрики
https://ru.wordpress.org/plugins/true-lazy-analytics/
обновления в последней версии не смотрел,
оно все так же вешает загрузку аналитики на onscroll и теряет посетителей, который кликают сразу без скрола?
Спасибо за комментарий, и да, я уже упомянул в статье ваш материал про плагин.
Я так понял из статьи, что на данный момент показатели скорости учитываются только для мобильного трафика:
2 декабря 2020 года, как раз перед официальным запуском Декабрьского обновления алгоритма, Google официально признал, что LCP, FID и CLS являются факторами ранжирования, *но пока что только для мобильного поиска*.Кстати, на графике показателей ранжирования скорость загрузи занимает суммарно ~15% (Desktop CLS, Mobile FCP, Desktop LCP) от общего результата, верно? Не совсем понятно где потерялся FID на графике, правда.
Интересно, 15% от ранжирования, это не так уж и много. Не мало, согласен, но 85% на остальном... хмм.
Интересно что в статье указано <1,5 секунды на FCP, при этом в документации (https://web.dev/first-contentful-paint/) до 2 секунд, а на калькуляторе зеленая зона до 2.3 секунд (https://googlechrome.github.io/lighthouse/scorecalc/). Кому верить? :)
Я не знаю писал тут кто то или нет. Я делаю так: аналитика после отрисовки страницы. Не таймер, а именно после отрисовки. На моб.гуглспид это даёт +10%. Важнее для пользователя показать готовую страницу, без задержек на анализ скриптов. Ну а в целом, если вы хотите хорошие показатели, то нужно работать с кодом темы. Разработчики всегда немного не доделывают, оставляют нам немного.
Лучше не использовать тему :) а писать свою. Но все-равно, конечно, если в смете не заложена полная оптимизация загрузки, то ее не будет в проекте.
Поэтому важно понимать что разработка - всего лишь часть сайта, как и дизайн, оптимизация, SEO продвижение.
Заголовок многообещающий, а на деле полезного 0.
Прямо как ваш комментарий.
Имею сайт по проверке музыки на АП - https://eproves.com/
Делал сразу под отличное SEO и для UX использования удобного.
В результате получил оценки по Google Page Speed:
SEO 100/100 - сам прифигел, но там начинки много: микроразметка, h1-4, линкбилд хорошый
PageSpeed для ПК: 96/100 - не на что жаловаться
PageSpeed для Мобилы: 75/100, вроде бы хорошо, но Google Console ругается на отстающие метрики CLS & LCP.
Пошел значить "чинить", поправил все красные зоны, оптимизировал по максимуму, добавил прелоадеры для шрифтов и скриптов от Гугла.
Результат для Мобилы: упало до 60/100 (фейспалм).
Вернул назад, живу радостной жизнью.
Правда, нас "какого-то" до сих пор в поиске нет, сайту уже 2мес.
В Яндексе залетели всего за 2недели на 1 место по СЧ запросу: "проверить музыку на авторские права". Сейчас ухватили несколько ВЧ и масшатируемся дальше.
А Гуглу вообще пофигу, он ранжировать не собирается. Бросает где-то с 10 на 8 страницу поиска и назад...
SEO 100/100 - сам прифигел, но там начинки много: микроразметка, h1-4, линкбилд хорошый
Микроразметка и заголовки и ссылки - не влияют на скорость загрузки сайта. Также, с точки зрения SEO у вас, на мой взгляд, не очень подходящие заголовки.
По поводу оптимизации, полагаю, что отложенная загрузка метрик, например GTM, и настройка шрифтов решит вопрос и можно будет добиться лУчшего результата.
Правда, нас "какого-то" до сих пор в поиске нет, сайту уже 2мес.Вы имеете ввиду что поисковые системы не проиндексировали сайт совсем? Или речь про ТОП10?
Если индексация - то нужно запросить индексацию в вебмастере. А по поводу ТОПа, то с таким возрастом сайта это не удивительно. Конечно все зависит от тематики сайта, но 2 месяца это слишком мало. Плюс объем сайта, супер-мелкий - в топе за подобный запрос бьются юридические форумы, информационные блоги - ваш сайт им проигрывает.
Ну и плюс, конечно же, слабая SEO оптимизация.
Что скажете о блокировке скриптов для Гугл Бота?
Вот статья: https://qna.habr.com/q/701107
Блокировать отдельно не рекомендовал бы. В частности Google собирает данные не только своим ботом, но и статистикой из браузеров пользователей (Google Chrome).
Боюсь что такой «маневр» не лучшим образом скажется на оценке, если вообще скажется. Или Google увидит реальные цифры у пользователей и примет их за основу, или заподозрит что-то неладное - а это уже не хорошо.
А вот вариант со скроллом или другими событиями очень даже имеет право на существование. Сейчас его тестируем.
Тестировать, настраивать сайт надо по эмуляции. Но за главный критерий качества принимать не результаты эмуляции, а результаты посещения сайта реальными пользователями. Так как результаты эмуляции могут быть обманчивы.
Проверьте любые сайты, и Вы увидите, что у кого то при 50 сайт удовлетворяет требованиям Гугл, а у кого то при 80 сайт НЕ удовлетворяет требованиям.
То есть идти в слепую? Эмуляция создана для того чтобы тестировать разные решения. В противном случае тестирование затягивается по времени на месяца.
Статистику свою можно использовать, на собственном сайте. Инструментов от платных до безплатных море.
Можно поподробнее? :)
Господа, кто голосует, особенно за наличие влияния на показатель отказов - отпишитесь в комментариях, хотя бы тезисно. Может опыт есть какой-то?
Почему всегда приводят код просто с таймаутом, когда можно встроить метрику по комплексу событий так, чтобы влияние на статистику было минимальным? Например: комбинация таймаута и тачстарт/маусмув-события.
Кажется это уже есть в статье.
Кто знает, как от яндекс метрики оставить один вебвизор. Только сделать его не тормозящим сайт?
Насколько я знаю - никак. Технически не реализуемо. Вебвизор - часть Яндекс.Метрики, а метрика - готовый продукт.
В рамках продукта вы можете отключить вебвизор, но оставить только вебвизор нельзя.
Спасибо,все работает,pagespeed попросил уменьшить до 1500,и все ошибки исчезли.
Куда это все бегут? А, в зеленую зону. Но бежать то надо не туда, а за записью в Google Page Speed: "Origin Summary Согласно данным наблюдений за последние 28 дней сводная оценка всех страниц из этого источника отвечает требованиям к основным интернет-показателям".
Запись появляется только тогда, когда LCP, FID и Cumulative Layout Shift (CLS) удовлетворяют требованиям Гугл. Остальные параметры, необходимые для входа в вожделенную зеленую зону не важны для "Отвечает требованиям к основным интернет-показателям".
При очень плохом Time to Interactive (через 15 секунд браузер начинает реагировать на действия пользователя) Google Page Speed может быть в красной зоне (показатель 45), и тем не менее "Согласно данным наблюдений за последние 28 дней сводная оценка всех страниц из этого источника отвечает требованиям к основным интернет-показателям"!
А если Cumulative Layout Shift (смещение макета при загрузке) равен 0,11, а все остальное ускорено до максимума, то можно даже в зеленой зоне при 92 - 94 получить запись "Не отвечает требованиям к основным интернет-показателям".
Очевидно же. Origin Summary - это и есть общая оценка всех страниц у реальных пользователей.
А текущий пейджспид - оценка конкретной страницы эмулируя минимальные технические характеристики.
Именно так как Вы пишите. Но, Гугл оценивает сайт именно по результатам посещения сайта реальными пользователями. Поэтому в первую очередь надо обратить внимание на LCP, FID и CLS даже в ущерб суммарному показателю скорости загрузки при эмуляции.
Безусловно, но как тестировать решения без эмуляции?
Сегодня в pagespeed/insights странность - вчера показатели были 60-80 (мобильный и десктоп), а сегодня 90-99. У меня так, или у всех? Или апдейт такой у них?
Во-первых, все зависит от сайта (изменения делали? Кеш есть?), сервера (его загруженности), и доугих параметров, так что сказать наверняка сложно.
Во-вторых, не об этом ли я писал выше????
https://vc.ru/185898?comment=2515365
Комментарий недоступен
Да, все верно.