Бот не может быть тупым или не тупым. Бот - это алгоритм, который по заданным правилам ищет контент на странице. И бот ищет адрес картинки в атрибуте src. И если там его нет, то тупым является владелец сайта, который допустил это, а не бот.
Большинство плагинов lazy load, чтобы отложить загрузку картинок вот так изменяют тег <img>:
<img srs="placeholder.gif" srcset="/moya-kartinka.jpg 1x" />
Наш плагин изменяет:
<img srs="/moya-kartinka.jpg" srcset="placeholder.gif 1x" />
Так как Google бот при анализе страницы "смотрит" атрибут src, то в 1ом случае он "видит" на странице только заглушки placeholder.gif
А во 2ом случае - реально картинки.
Об этой проблеме уже писал здесь https://vc.ru/seo/169540-kak-lazy-load-ubivaet-vashi-sayty-i-chto-s-etim-delat
А вот пример как должно работать Как правильно реализовать Lazy Load изображений на сайте
Первое впечатление - автор в SEO недавно. Рассуждать про, что можно что-то сделать "прямо в первый месяц" может только человек, который вчера начал заниматься продвижением сайтов. Тут по 2-3 месяца ждёшь пока ссылки зайдут в индекс. Потом ещё месяц пока поисковая система их учтёт.
Да рассуждать про "первый месяц" может только пацан, который на прошлой неделе записался на секцию карате, а сегодня уже решил навалять всем в школе. Смешно.
Я не о том, что "не может спарсить". Я о том, что он может неправильно понять где основной контент, а где дополнительный.
Пример из жизни:
Был новостной сайт. Коротенькие новости + после большой блок Похожих Новостей. Решили внедрить семантическую вёрстку. разметили статью как основной контент через тег <main>. А Похожие - как неосновной через <aside>. В итоге через некоторое время весь сайт просел. Потому что Гугл понял что основного контента - 3 абзаца. А до этого он думал, что основной контент - это огромный блок вместе с Похожими.
В итоге переверстали правильно. Сайт вернулся на те же позиции.
Да <main>, <aside> это HTML5, а не Schema.org. Просто вот в таком частном случае видно: разметка-то тегами работает! Думаю можно найти частные случаи когда и Schema.org сработает.
Другое дело, что на 80% сайтов вёрстка такая простая, что там нечего размечать.
В моей практике её интеграция вообще ни разу не сказалась в плюс для ранжирования.Возможно, на тех сайтах, которые оптимизировали Вы, алгоритм Гугла и так легко отделял основной контент от дополнительного (типа футера).
Это не значит, что микроразметка бесполезна. Это значит что на сайтах с простой версткой гуглу и так всё понятно.
Ну и если Вы занимаетесь SEO, то знаете про временнОй лаг в гугле. То что внедряется сегодня может дать результат через неделю, а может через месяц. и эффект от внедрения микроразметки может "размазываться".
Да нам сделали такое замечание в комментариях. И если бы можно было сейчас переписать статью - я бы так и сделал.
Но при написании статьи всё таки ориентировался на Google, поэтому упустил ньюанс с атрибутами data-src и data-original для Яндекса
И кстати вот тебе скриншот где уже 4 сайта
Ты понимаешь что в выдаче только ТРИ МЕСТА под рекламу. Но при этом одновременно по запросу "электромонтажные работы" могут крутиться в Директе 100 сайтов. А на эти три места попадут те из 100 сайтов, у кого ставка в аукционе больше и сработает?
Да конечно в каком-то Мухосранске (или Брянске) на весь город может быть только две электромонтажные компании. И только они и будут вдвоём среди рекламных ссылок. А если они не рекламируются в Директе - то даже их не будет на рекламных местах. Но это уже проблемы маленьких городов, о чём тебе сразу и написали в комментарии.
Но опять же к тебе вопрос. Почему из двух сайтов, которые ведут рекламные компании в Директе, какой-то из них на первом месте, а какой-то на втором? Сам догадаешься или подсказать?
Что ты там зальешь? Типа у тебя есть данные сколько сайтов участвуют в аукционе Директа?
Проснись уже. Количество рекламных объявлений в выдаче не равно количеству сайтов, участвующих в аукционе.
Ну и наивный :) Говорит "три сайта только" :))
Там три места, за которые в аукционе Директа могут бороться от 3 до 100 сайтов.
Для начала разберитесь как работает аукцион и не позорьтесь со своими выводами
Если у Вас WordPress - то эту проблему решает наш плагин True Image & Lazy Load. Если другая CMS - тут уже надо кодить.
Для Яндекса и Гугла картинкой является то, что в теге <img>. А у Вас там уменьшенные копии. А то что есть ссылка на большое.... Ну их тоже может проиндексировать .Через год или никогда.
Здравствуйте. Нужно смотреть саму страницу. Потому что так нужно только гадать. Вариантов несколько:
Например:
1. большая картинка есть в микроразметке ld-json, которую Яндекс не поддерживает.
2. Яндекс не счёл нужным индексировать эту картинку
.....
ну и т.д.
Эта статья скорее подбор ссылок на материалы, чем практическая рекомендация. Да, тут есть ссылки кто, что и когда сказал про PageSpeed .... и всё. Явно видно, что человек, который это писал, сам сайты не разгоняет. В целом ничего ценного.
Короткий ответ на Ваши вопросы - прелоад бесполезен, хотя и рекомендуется в документации.
Два основных пути по оптимизации, которые дают быстрый результат:
1. отложенная загрузка скриптов
2. максимально убрать всё с первого экрана
Всё остальное: настройка кеширования, swap для шрифтов .... и прочее дают малую прибавку по баллам.
Никита. Я почитал этот диалог выше.
И посоветовал бы прислушаться к тому что говорит Алексей. Прелоад и префетч для баллов в пейджспид - это путь вникуда. Да, возможно для реального ускорения в мсек, но не для баллов.
Просто Вам нужно взять сайты новичков-вебмастеров с курсов Пузата и попробовать их ускорить. А там по 3 слайдера, font awesome, 5 разных счётчиков статистики и куча прочей дряни.
Вот после этого Вы поймёте, то о чём говорит Алексей.
На каждый продукт найдется свой клиент. Кому-то нужны попугаи за счет потери 3-5% точности в аналитике. Эти люди и воспользуются плагином.
остальные будут использовать скрипты аналитики в обычном режиме.
Да. Имел ввиду, что для простых владельцев сайтов удобнее плагин.
Я не знаю почему люди гоняются за точностью. Я смотрю только вебвизор и поисковые запросы. А плюс минус 5% пользователей ничего не решают.
Другое дело при продаже сайта. Там нужно показать максимальный трафик
Считаю что не противоречит правилам.
А код можно добавить вручную. Я могу. Вы можете.
Только для многих вебов плагины - это удобнее.
Это Михаил Flat намекает, что в его плагине Flat как раз все это и реализовано.
В 2.2 так и будет. Просто мы с Дмитрием знакомы по другому чату. Поэтому он и задаёт вопросы по скроллу.
Дмитрий, Вы можете стать контрибьютором этого бесплатного плагина и внедрить передовые технологии отложенной загрузки.
То что показатели теста PageSpeed (а именно один из них - FCP) влияют на ранжирование уже статистически доказано. Вот исследование https://pro100blogger.com/2020/12/google-december-2020-core-update.html
Кроме того в личной переписке коллеги мне кидали примеры, когда удалось восстановить позиции сайта после оптимизации скорости.
Так что да - заниматься оптимизацией нужно, но разумно.
Ну и, пользуясь случаем, напомню что мы разработали WordPress плагин для отложенной загрузки счётчиков статистики, в том числе и Яндекс Метрики
https://ru.wordpress.org/plugins/true-lazy-analytics/
UPD. Плагин обновлён до версии 2.1.0.
Как и обещал, добавил Яндекс Метрику
Если нужно срочно - заказывайте оптимизацию, как другие мои клиенты. Если не срочно - ждите релиза плагина.
Я бы не советовал так делать. Это всё работало до майского апдейта. Сейчас все эти локальные сохранения, атрибуты async.... Это всё уже не работает. Основное это - отложенная загрузка и максимальное облегчение первого экрана.
А по сути вопроса. Я разгоняю клиентам сайты и Метрика это минимальная проблема. Намного хуже слайдеры типа Revolution.
А где я поставил 5 своему продукту? На wordpress.org? Не смешите, я такими дешёвыми трюками не занимаюсь.
Это довольно старый метод и на вид вполне рабочий.
Проблема в том, что сейчас гуглобот на 2й стадии индексации - это фактически браузер Chrome и все скрипты в нем выполняются. Так что noscript уже не сработает