Ускорение сайта или вред для SEO: отложенная загрузка метрик и ее влияние на показатель отказов

Решение написать пост было принято ввиду популяризации статей на тему ускорения сайтов на vc.ru и сотен комментариев под материалами в разделе SEO.

Во всех постах дублируются известные приемы оптимизации страниц сайтов вроде lazyload загрузки изображений, кеширования, GZIP и др., которые в "пузомерках" вроде Google Pagespeed Insights дают небольшой прирост, но на деле реально эффективны.

Для достижения вожделенной "зеленой зоны" (оценки 100/100 по тестам Pagespeed Insights), остается нерешенным вопрос долгой загрузки и блокировки страницы сторонними скриптами метрик (Google Analytics, Яндекс.Метрика, Facebook Pixel и другие).

Единственное предлагаемое решение - отложенная загрузка и выполнение данных скриптов. Но насколько такой подход оправдывает цель?

Более глубокого изучения данное решение не удостоилось, поэтому пришла мысль провести "коллективную дискуссию" - приглашаю вас в комментарии.

Вопрос достаточно емкий, и без небольшого бэкграунда не обойтись, поэтому разделим его на следующие тезисы (от общего к частному):

  1. цель оптимизации сайта (влияние скорости загрузки на SEO);
  2. объективность оценок сервисов Google Pagespeed Insights и подобных;
  3. отложенная инициализация метрик и показатель отказов.

Возможно, данный вопрос не настолько острый и важный, чтобы писать для него отдельный материал, но:

  • в комментариях тесно для изложения мыслей на этот счет;
  • интересно разобраться в вопросе основательно.

Простите за долгое предисловие, не планировал лонгрид. Это не гайд (инструкция), не кейс (разбор), а скорее ресёрч (исследование).

Зачем ускорять сайт, и как оценить результат?

Прежде чем приступать к любой работе - важно понимать, какую цель преследует данный манёвр. Простыми словами - зачем это нужно?

Смысл оптимизации скорости загрузки сайта заключается в следующем:

  1. улучшить опыт пользователя - сократить время ожидания загрузки страницы, и тем самым минимизировать показатель отказов;
  2. в следствии п.1. ожидать преференции от поисковых систем в выдаче (не только благодаря быстрой загрузке, но и улучшению ПФ - снижению показателя отказов).

В целом тезисы ясны, но что считать быстрой загрузкой? Да, необходимое время загрузки в 1-2 секунды, и красивый график с показателями отказов все видели.

Красивый график с показателями отказов https://backlinko.com/hub/seo/bounce-rate

НО! К сожалению, показатель скорости загрузки сайта зависит от множества факторов:

  • тип устройства и его мощность (ПК, планшет, смартфон);
  • заявленная скорость интернет соединения (провайдер);
  • фактическая скорость (загрузка канала, качество сигнала и т.п.).

Следовательно, говорить об абсолютной оптимизации и постоянной скорости загрузки не представляется возможным.

Однако, существуют популярные сервисы замера скорости загрузки сайта. Насколько в таком случае точна их оценка? Стоит ли гнаться за 100/100?

Проверка скорости загрузки сервисами

Такие инструменты как Google Pagespeed Insights (и другие, на базе Lighthouse), используют для своих тестов эмуляцию конкретных устройств, которые, по их мнению, подходят для этого.

Интересно было бы узнать, как проходит отбор таких устройств. Возможно, по усредненным техническим характеристикам, или по популярности распространения устройств, схожих по ТХ.

Интересно, что на сегодняшний день, в Lighthouse для тестирования скорости загрузки сайта используется устройство 2016 года выпуска - Motorola Moto G4 на базе процессора Snapdragon 617 от 2015 года.

При этом используется достаточно хорошее интернет соединение - 1,6Mbps/750Kbps - эквивалентный медленному 4G или быстрому 3G. Тестировали бы уже на EDGE. 🙃

Конечно, для гиков гаджеты - это все, и ориентироваться на работников сферы IT было бы не верным решением.

Но в эпоху, когда Apple наполняет рынок десятками моделей смартфонов, соревнуясь с Xiaomi, Samsung и Huawei у кого телефон более бюджетный, при средней комплектации, ориентироваться на Moto G4, кажется, тоже не совсем корректно.

Для получения реальных данных по мобильным устройствам, использующихся аудиторией вашего сайта, перейдите в Google Analytics - Аудитория - Мобильные устройства - Устройства.

Перечень моделей мобильных устройств пользователей сайта

Немного про железо

Проанализировав топ мобильных устройств своего сайта и, на основании технических данных этих устройств, сравним процессоры и их производительность с процессором Snapdragon 617, установленным в Moto G4, используемом в тестах Lighthouse.

Сравнение мощностей процессоров мобильных устройств посетителей с устройством эмулирующим загрузку в синтетических тестах Lighthouse.

Конечно, Snapdragon 625 не самый мощный процессор, но все-таки мощнее Snapdragon 617, (возможно, из-за обновленного техпроцесса 10 нм). Не претендую на ученую степень инженера микропроцессоров, поправьте в комментариях.

В любом случае, Redmi Note 4 (на Snapdragon 625) - одно из самых устаревших устройств в списке аналитики, а в синтетических тестах замедление еще больше.

Таким образом, фактическая проверка оптимизации сайта, содержащего "современные" скрипты отслеживания (последнее изменение было в конце 2017 года), которые предлагает сам Google, проводятся на устройстве выпущенном в начале 2016 года. (голосом Михалкова) Иронично! 🙃

Данное сравнение, относительно поверхностно, важно учитывать и другие параметры, но в целом использование такого устройства кажется немного устаревшим.

То есть синтетические тесты проводятся на очень устаревшем устройстве. Разумеется, есть не такие благополучные страны/города/районы/люди, и кто-то еще использует кнопочные аппараты, но ориентироваться на эту аудиторию странно, нет?

Отложенная загрузка метрик

Хватит же погружения в технически детали! Мы здесь, чтобы разобраться что делать и "как дальше с этим жить". Как достичь 100/100 по Pagespeed Insights?

Предлагаемое решение - отложить выполнение скриптов метрик для достижения эффекта быстрой загрузки, реализуемое следующим простым кодом:

document.addEventListener('DOMContentLoaded', () => { setTimeout(function(){ /* * Тут код отслеживания всех метрик, */ }, 3500); // время указано в мс = 0,001 секунды, изменить по вкусу });

Код можно модифицировать по-разному:

  • менять время задержки;
  • менять событие, по которому будет выполнятся код.

Сути это не меняет, но можно найти множество подобных решений (некоторые даже продаются). Бесплатно, без смс и регистрации можно почитать тут:

Как это работает: при загрузке страницы будут загружены и выполнены все стили и скрипты, кроме отложенных. Отложенные скрипты будут загружены и/или выполнены через какое-то время (например, 0.5-1 секунду) или по действию пользователя (при прокрутке страницы, например).

Используя данный код, скорость загрузки страницы безусловно повысится в PageSpeed Insights, поскольку скрипты не будут выполнятся сразу, но:

  • будет ли наша статистика такой же точной?
  • как следствие - не вырастет ли показатель отказов?
  • как следствие - не будет ли понижен ресурс в поисковой выдаче?

Можно уверенно сказать - часть посещений потеряется. Да, это могут быть незначительные визиты, до 1 секунды, боты и т.д. Но эти показатели тоже важны для поисковых систем.

Также, фактический объем скриптов не меняется, то есть нельзя сказать, что будет ускорена загрузка, поскольку код выполнится, но позже. Для сравнения, отложенная загрузка изображений позволяет загружать их по факту востребованности.

Отложенным вызовом можно снизить пиковую единовременную нагрузку на процессор, распределив выполнение кода, не более того.

Из поиска по запросам "lazyload google analitycs" можно найти один очень старый (2011 год), но от этого не менее информативный, пост на Stackoverflow:

Другой информации, относительно изменений показателя отказов ввиду отложенной инициализации скриптов метрик, не удалось найти, кроме пары статей про ускорение сайта и статей на малазийском.

Вывод и опрос

Работать над скоростью загрузки сайта нужно, поскольку она влияет на пользовательский опыт, что несомненно улучшит и поведенческие показатели, и как следствие, положительно скажется на позициях.

Однако, данный показатель немного переоценен, поскольку существуют более весомые факторы ранжирования, и ожидать значительного эффекта не стóит.

Синтетические тесты предоставляют инструмент для ориентира, не более того. Но не стóит создавать сайты на шаблонах за 200$ с десятками ненужных скриптов и стилей, слепленных на коленке.

Решение об оптимизации сайта до "зеленой зоны" - не всегда верное и выполнимое в текущих реалиях, все зависит от:

  • типа сайта и контента;
  • целевой аудитории.

Техника отложенной загрузки скриптов метрик, как решение с целью достичь 100 баллов, вызывает сомнения, поскольку в теории можно получить негативный эффект, и как следствие, в позициях тоже.

А что скажете вы, коллеги?

Влияет ли отложенная загрузка метрик на показатель отказов?
Влияет, критично. Показатель отказов важнее.
Влияет, не критично. Прирост скорости эффективнее.
Не влияет.
Показать результаты
Переголосовать
Проголосовать
0
130 комментариев
Написать комментарий...
Марк Климов

А вы проводили исследования по влиянию количества набранных баллов PageSpeed Insight на позицию в поиске? По моим данным для Google корреляция с позицией такая, что можно особо не заморачиваться с оптимизацией. На изображении по оси X позиция в поиске от 1 до 20, по оси Y - количество набранных баллов.

Ответить
Развернуть ветку
Алексей из LOADING.express

Заморачиваться для позиций со скоростью пока не надо.
А если вы для Яндекс стараетесь, то вообще не парьтесь.))
Некоторые бренды делают сайты для людей и там скорость важна, а медлительность критична.

Ответить
Развернуть ветку
Nikita Spivak
Автор

Нет, спасибо за предоставленный график.

Ответить
Развернуть ветку
Ваня Пупкмн

Ну за 10кой скорость медленне. Да и надо с фонами сравнивать, как в исследованиях Ашманова. Вопрос, как сильно влияет.

Ответить
Развернуть ветку
Алексей Медведев

Не вижу ничего страшного в отложенной загрузке метрик, это никак не скажется на поведенческих. Большинство роботов и так известны ПС. Они их заходы не считают посетителями.
Но!!! Никакого прироста производительности сайта это не даст! GA не обсаживает скорость вообще никак (незначительно настолько, что это смешно!), а с яшиной метрикой ЗАЕ**ТЕСЬ  вы бороться!! Эта шляпа, как ни крути, куда ты её не откладывай, один хрен mobil скорость обсаживает на 20-30% по speed test Google!
Вообще, метрики, это не самое страшное, большинство сайтов страдают из за css и картинок. Ну а если у вас сторонние скрипты на сайте (та же подтяжка товаров от партнёров), то это вообще жопа!
Самое прикольное, что скорость загрузки влияет на ранжирование сайта в 100500 ю очередь! При прочих равных более быстрый сайт в выдаче будет выше.
Потому, господа, не парьтесь из за метрик. Вообще! Чтоб попасть в топ, зелёной зоны недостаточно!!!
Да, обращаясь к автору, Никита!, тебе ли не известно, 100/100 даже голый Google не даёт! Последний тест его же инструментом, показал 98/100.

Ответить
Развернуть ветку
Nikita Spivak
Автор

То есть получается отложенная загрузка приводит просто к "очищению" статистики.

По поводу оптимизации метрик: да, мы рассматриваем и Яндекс.Метрику тоже - ею тоже пользуются. Но на google analytics PageSpeed тоже реагирует (кеширование, неиспользуемый код, влияние стороннего кода и т.д.)

Прирост скорости - да, фактическое количество кода остается таким же, но все ж SEOшники первым делом проверяют наличие "зеленой зоны" и начинаются пляски :)

CSS и картинки решаются исключением шаблонов и lazyload (про это уже исписался), а вот то что влияет это в последнюю очередь - это полезно будет узнать всем требующим минимум 90/100.

Про идиотию в этом тесте писал еще в феврале 2015 года, пока это еще не стало мейнстримом. С тех пор много воды утекло и я многому научился, в том числе и статьи писать лучше, а Pagespeed каким был - таким и остался.  🤣

Ответить
Развернуть ветку
4 комментария
Михаил Flat

Влияние на попадание в топ никчемное, но если ближайший конкурент к вам сидит выше и уверенно, то этот пункт в ранжирование зароляет.

Вообще нужно понимать, что влияние пузомерок растёт от года к году, появляются инструменты в серч консоле, а это не стали бы делать просто так, потому что нечего больше делать. 

Конечно, гнаться бездумно за 100/100 на существующем проекте глупо, но что касается новых - мастхэв. 

Ответить
Развернуть ветку
4 комментария
Алексей из LOADING.express

Абсолютно согласен, что устройство и троттлинг у лайтхауса немного жестковаты, поэтому мы используем немного другую эмуляцию, процессор в 2 раза быстрее, чем у пейджспид, сеть примерно на том же уровне.

Точность метрик Аналитикс и Яндекса снижается, но мы откладываем её не на 3500 мс, как в статье, а на 200-600 мс. Спросите в чем тогда смысл? Смысл в том, чтобы дать время выполниться без соединений и работы с DOM другим нужным для FCP и LCP элементам, и поставить выполнение внешних скриптов в конец очереди. Хотя бы сместить их на несколько позиций.

Чаты и попапы смело можно на 5-10 секунд откладывать, чтобы дать время выполниться родным скриптам сайта, которые нужны для отрсовки родного содержимого и взаимодействия с ним.

Откуда вообще эта идея в отложке? Это не для того, чтобы синтетика не ловила эти скрипты, а в том, что реальные пользователи выполняют родные скрипты сайта раньше чем сторонние. Однако этот подход практически бесполезен, если внутренние js-скрипты выполняются 10 секунд и на странице инициалиируется 10 слайдеров, при помощи плагина к библиотеке с кучей зависимостей.

Поэтому первоначально обязательно нужно оптимизировать СВОЙ КОД. Переработать, переосмыслить и то, что нельзя оптимизировать — тоже нужно откладывать по времени, или по действию пользователя.

Например, зачем грузить видео ютуба в айфрейм и целый плеер, если не каждый пользователь нажмет на play. Откладываем до клика на изображение видео. Всё.

Вообще, все соединения лучше вести через свой домен и не устанавливать внешних соединений, потому что это едва ли не самая ресурсоемкая операция. Можно потратить ресурсы на установку соединения, а потом гораздо быстрее выкачать картинку в 1 мегабайт.

Задача как раз сделать быстрее отрисовку первого экрана, снизить нагрузку на основной поток, растянуть нагрузку по времени, тем самым избежать лонг-тасков и блокировки потока более 50 миллисекунд.

Ответить
Развернуть ветку
Алексей из LOADING.express

По внутренней оптимизации.

Иногда инициализация одного внутреннего слайдера может занимать 2-3 секунды, так как приходится ждать ответа от бакенда, или загружать 1-2 библиотеки и существенно изменить DOM, вызвав тем самым перерисовку несколько раз подряд.

Простое изменение порядка работы с DOM может существенно снизить время выполнения задачи.

Пример:

вместо того, чтобы вставлять в страницу 10 элементов, вставляем один, который уже содержит эти 10 элементов, что уже вызовет одну перерисовку, вместо 10. Лучше конечно вообще не менять DOM из js без ведома пользователя.

В крайнем случае добавлять, но не менять. Это позволит еще и контролировать CLS, так как все элементы будут стилизованы без js.

Изменения css-свойств также может вызывать перерисовку всего содержимого. Нужно быть аккуратнее и не менять свойства своим js скриптом после загрузки страницы, оставив это на момент взаимодействия с элементом.

Ответить
Развернуть ветку
9 комментариев
Вячеслав Иванов

Я находил как то плагин для WP, который как раз откладывает выполнения скриптов (как раз чаты, попапы и тд) до взаимодействия с пользователем. Название - Flying Scripts by WP Speed Matters
видео по нему на Ютюб 

Ответить
Развернуть ветку
Алексей из LOADING.express

По поводу снижения баллов за Яндекс.Метрику.

20-30 баллов Метрика может снять только в случае, если поток занят перерисовкой или выполнением скриптов уже после загрузки страницы. До крутизны Analytics ей достаточно далеко, и блокирует поток она на 300-600 миллисекунд, при троттлинге 4х на макбук PRO.

Но ребята занимаются и стараются оптимизировать скрипт Метрики. Если на странице вообще нет JS, то вставка метрики и аналитики снизит показатели PageSpeed незначительно, оставив их в зеленой зоне.

Пример:

https://3-секунды.рф — тут вообще без отложки метрики. Делаем 10 перезамеров PageSpeed и получаем 95-99 баллов.

В нашем случае отложка внешки не нужна. Так как загрузка внешнего скрипта начинается гораздо позже, чем отрисовка всей страницы. А любая попытка преконнекта или прелоада снизит оценку в желтую зону, так как соединение начнет блокировать поток раньше, чем необходимо.

Ответить
Развернуть ветку
5 комментариев
Nikita Spivak
Автор

Спасибо за комментарий, наконец-то дождался от вас какой-то конкретики.

 Точность метрик Аналитикс и Яндекса снижается, но мы откладываем её не на 3500 мс, как в статье, а на 200-600 мс. Спросите в чем тогда смысл? Смысл в том, чтобы дать время выполниться без соединений и работы с DOM другим нужным для FCP и LCP элементам, и поставить выполнение внешних скриптов в конец очереди. Хотя бы сместить их на несколько позиций.

Точность, как уже определили до нескольких процентов не страшно, и конечно 3,5 секунды это много, это код для примера. Но нагрузка же все-равно остается? Конечно влияние стороннего кода уменьшится, но пункты:
- "Удалите неиспользуемый код JavaScript"
- "Минимизируйте работу в основном потоке"
- "Сократите время выполнения кода JavaScript"

по идее никуда не денутся.

Для видео с ютуба есть лайфхак (параметр srcdoc у тега iFrame) - посмотрите на этой странице, например: https://rubika.com.ua/blog/skolko-stoit-sozdanie-sajta-ceny-na-sajt-v-2020-godu#konstruktor-saytov-tilda-publishing

Но! Кстати для решения внешних соединений, почему бы не использовать link rel="dns-prefetch" или "preconnect" (подробнее в статье: https://habr.com/ru/post/445264/), безусловно, речь про аналитики и другие внешние скрипты, КОТОРЫЕ ОПРАВДАНЫ, а не картинка с чужого сайта)

Ответить
Развернуть ветку
20 комментариев
Denis Kiselev

Нужно ли рассматривать в качестве отказа неучет посещения ботом длительностью менее нескольких секунд? Бот, очевидно, не пытался ничего полезного сделать.

Поэтому потеря посещений если и произойдёт, то только на такие мусорные посещения. Совсем не страшно

Ответить
Развернуть ветку
Nikita Spivak
Автор

Получается, таким образом, вообще можно «подстраивать» статистику под пожелания. Сделать показатель отказов = 0.

Сделать отложенную загрузку на 10 (подставляем среднее время большинства мусорных посещений) секунд и если пользователь не очень заинтересован - просто посмотрел и вышел - не будет отказа.

Не расценивается ли такое решение как попытка манипуляции со статистикой? Накрутка пф, возможно?

Я понимаю, поисковые системы ведут аналитику и у себя, соответственно, они получат более полную картину при переходе с поиска, но что на счет таргета, реферальных переходов? И пр.

Ответить
Развернуть ветку
12 комментариев
Евгений Калинский

То что показатели теста PageSpeed (а именно один из них - FCP) влияют на ранжирование уже статистически доказано. Вот исследование https://pro100blogger.com/2020/12/google-december-2020-core-update.html
Кроме того в личной переписке коллеги мне кидали примеры, когда удалось восстановить позиции сайта после оптимизации скорости.
Так что да - заниматься оптимизацией нужно, но разумно.
Ну и, пользуясь случаем, напомню что мы разработали WordPress плагин для отложенной загрузки счётчиков статистики, в том числе и Яндекс Метрики
 https://ru.wordpress.org/plugins/true-lazy-analytics/

Ответить
Развернуть ветку
Дима Дьяконов

обновления в последней версии не смотрел,
оно все так же вешает загрузку аналитики на onscroll и теряет посетителей, который кликают сразу без скрола?

Ответить
Развернуть ветку
6 комментариев
Nikita Spivak
Автор

Спасибо за комментарий, и да, я уже упомянул в статье ваш материал про плагин.

Я так понял из статьи, что на данный момент показатели скорости учитываются только для мобильного трафика:

 2 декабря 2020 года, как раз перед официальным запуском Декабрьского обновления алгоритма, Google официально признал, что LCP, FID и CLS являются факторами ранжирования, *но пока что только для мобильного поиска*.

Кстати, на графике показателей ранжирования скорость загрузи занимает суммарно ~15% (Desktop CLS, Mobile FCP, Desktop LCP) от общего результата, верно? Не совсем понятно где потерялся FID на графике, правда.

Интересно, 15% от ранжирования, это не так уж и много. Не мало, согласен, но 85% на остальном... хмм.

Интересно что в статье указано <1,5 секунды на FCP, при этом в документации (https://web.dev/first-contentful-paint/) до 2 секунд, а на калькуляторе зеленая зона до 2.3 секунд (https://googlechrome.github.io/lighthouse/scorecalc/). Кому верить? :)

Ответить
Развернуть ветку
В А

Я не знаю писал тут кто то или нет. Я делаю так: аналитика после отрисовки страницы. Не таймер, а именно после отрисовки. На моб.гуглспид это даёт +10%. Важнее для пользователя показать готовую страницу, без задержек на анализ скриптов. Ну а в целом, если вы хотите хорошие показатели, то нужно работать с кодом темы. Разработчики всегда немного не доделывают, оставляют нам немного. 

Ответить
Развернуть ветку
Nikita Spivak
Автор

Лучше не использовать тему :) а писать свою. Но все-равно, конечно, если в смете не заложена полная оптимизация загрузки, то ее не будет в проекте.

Поэтому важно понимать что разработка - всего лишь часть сайта, как и дизайн, оптимизация, SEO продвижение.

Ответить
Развернуть ветку
Matviy Kobets

Имею сайт по проверке музыки на АП - https://eproves.com/
Делал сразу под отличное SEO и для UX использования удобного.
В результате получил оценки по Google Page Speed:
SEO 100/100 - сам прифигел, но там начинки много: микроразметка, h1-4, линкбилд хорошый
PageSpeed для ПК: 96/100 - не на что жаловаться
PageSpeed для Мобилы: 75/100, вроде бы хорошо, но Google Console ругается на отстающие метрики CLS & LCP.
Пошел значить "чинить", поправил все красные зоны, оптимизировал по максимуму, добавил прелоадеры для шрифтов и скриптов от Гугла.
Результат для Мобилы: упало до 60/100 (фейспалм).
Вернул назад, живу радостной жизнью.

Правда, нас "какого-то" до сих пор в поиске нет, сайту уже 2мес.
В Яндексе залетели всего за 2недели на 1 место по СЧ запросу: "проверить музыку на авторские права". Сейчас ухватили несколько ВЧ и масшатируемся дальше.
А Гуглу вообще пофигу, он ранжировать не собирается. Бросает где-то с 10 на 8 страницу поиска и назад...

Ответить
Развернуть ветку
Nikita Spivak
Автор
В результате получил оценки по Google Page Speed:

SEO 100/100 - сам прифигел, но там начинки много: микроразметка, h1-4, линкбилд хорошый

Микроразметка и заголовки и ссылки - не влияют на скорость загрузки сайта. Также, с точки зрения SEO у вас, на мой взгляд, не очень подходящие заголовки.

По поводу оптимизации, полагаю, что отложенная загрузка метрик, например GTM, и настройка шрифтов решит вопрос и можно будет добиться лУчшего результата.

 Правда, нас "какого-то" до сих пор в поиске нет, сайту уже 2мес.

Вы имеете ввиду что поисковые системы не проиндексировали сайт совсем? Или речь про ТОП10?

Если индексация - то нужно запросить индексацию в вебмастере. А по поводу ТОПа, то с таким возрастом сайта это не удивительно. Конечно все зависит от тематики сайта, но 2 месяца это слишком мало. Плюс объем сайта, супер-мелкий - в топе за подобный запрос бьются юридические форумы, информационные блоги - ваш сайт им проигрывает.

Ну и плюс, конечно же, слабая SEO оптимизация.

Ответить
Развернуть ветку
Matviy Kobets

Что скажете о блокировке скриптов для Гугл Бота?
Вот статья: https://qna.habr.com/q/701107

Ответить
Развернуть ветку
Nikita Spivak
Автор

Блокировать отдельно не рекомендовал бы. В частности Google собирает данные не только своим ботом, но и статистикой из браузеров пользователей (Google Chrome).

Боюсь что такой «маневр» не лучшим образом скажется на оценке, если вообще скажется. Или Google увидит реальные цифры у пользователей и примет их за основу, или заподозрит что-то неладное - а это уже не хорошо.

А вот вариант со скроллом или другими событиями очень даже имеет право на существование. Сейчас его тестируем.

Ответить
Развернуть ветку
Michael

Заголовок многообещающий, а на деле полезного 0.

Ответить
Развернуть ветку
Nikita Spivak
Автор

Прямо как ваш комментарий.

Ответить
Развернуть ветку
4 комментария
Виктор Чернов

Тестировать, настраивать сайт надо по эмуляции. Но за главный критерий качества принимать не результаты эмуляции, а результаты посещения сайта реальными пользователями. Так как результаты эмуляции могут быть обманчивы.
Проверьте любые сайты, и Вы  увидите, что у кого то при 50 сайт удовлетворяет требованиям Гугл, а у кого то при 80 сайт НЕ удовлетворяет требованиям.

Ответить
Развернуть ветку
Nikita Spivak
Автор

То есть идти в слепую? Эмуляция создана для того чтобы тестировать разные решения. В противном случае тестирование затягивается по времени на месяца.

Ответить
Развернуть ветку
9 комментариев
Alexandr Svetlov

Статистику свою можно использовать, на собственном сайте. Инструментов от платных до безплатных море.

Ответить
Развернуть ветку
Nikita Spivak
Автор

Можно поподробнее? :)

Ответить
Развернуть ветку
Nikita Spivak
Автор

Господа, кто голосует, особенно за наличие влияния на показатель отказов - отпишитесь в комментариях, хотя бы тезисно. Может опыт есть какой-то?

Ответить
Развернуть ветку
Михаил Flat

Почему всегда приводят код просто с таймаутом, когда можно встроить метрику по комплексу событий так, чтобы влияние на статистику было минимальным? Например: комбинация таймаута и тачстарт/маусмув-события. 

Ответить
Развернуть ветку
Nikita Spivak
Автор

Кажется это уже есть в статье.

Ответить
Развернуть ветку
10 комментариев
STB-GROUP

Кто знает, как от яндекс метрики оставить один вебвизор. Только сделать его не тормозящим сайт?

Ответить
Развернуть ветку
Nikita Spivak
Автор

Насколько я знаю - никак. Технически не реализуемо. Вебвизор - часть Яндекс.Метрики, а метрика - готовый продукт.

В рамках продукта вы можете отключить вебвизор, но оставить только вебвизор нельзя.

Ответить
Развернуть ветку
Dikegio

Спасибо,все работает,pagespeed попросил уменьшить до 1500,и все ошибки исчезли.

Ответить
Развернуть ветку
Виктор Чернов

Куда это все бегут? А, в зеленую зону. Но бежать то надо не туда, а за записью в Google Page Speed: "Origin Summary Согласно данным наблюдений за последние 28 дней сводная оценка всех страниц из этого источника отвечает требованиям к основным интернет-показателям". 
Запись появляется только тогда, когда LCP,  FID и Cumulative Layout Shift (CLS) удовлетворяют требованиям Гугл. Остальные параметры, необходимые  для входа в вожделенную зеленую зону не важны для "Отвечает требованиям к основным интернет-показателям".
При очень плохом Time to Interactive (через 15 секунд браузер начинает реагировать на действия пользователя) Google Page Speed может быть в красной зоне (показатель 45), и тем не менее "Согласно данным наблюдений за последние 28 дней сводная оценка всех страниц из этого источника отвечает требованиям к основным интернет-показателям"!
А если Cumulative Layout Shift (смещение макета при загрузке) равен 0,11, а все остальное ускорено до максимума, то можно даже в зеленой зоне при 92 - 94 получить запись "Не отвечает требованиям к основным интернет-показателям".

Ответить
Развернуть ветку
Nikita Spivak
Автор

Очевидно же. Origin Summary - это и есть общая оценка всех страниц у реальных пользователей.

А текущий пейджспид - оценка конкретной страницы эмулируя минимальные технические характеристики.

Ответить
Развернуть ветку
Виктор Чернов

Именно так как Вы пишите. Но, Гугл оценивает сайт именно по результатам посещения сайта реальными пользователями. Поэтому в первую очередь надо обратить внимание на LCP, FID и CLS даже в ущерб суммарному показателю скорости загрузки при эмуляции.

Ответить
Развернуть ветку
Nikita Spivak
Автор

Безусловно, но как тестировать решения без эмуляции?

Ответить
Развернуть ветку
Виктор Чернов

Сегодня в pagespeed/insights странность - вчера показатели были 60-80 (мобильный и десктоп), а сегодня 90-99. У меня так, или у всех? Или апдейт такой у них?

Ответить
Развернуть ветку
Nikita Spivak
Автор

Во-первых, все зависит от сайта (изменения делали? Кеш есть?), сервера (его загруженности), и доугих параметров, так что сказать наверняка сложно.

Во-вторых, не об этом ли я писал выше????
https://vc.ru/185898?comment=2515365

Ответить
Развернуть ветку
4 комментария
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Nikita Spivak
Автор

Да, все верно.

Ответить
Развернуть ветку
127 комментариев
Раскрывать всегда