Примерно в это время года в народе принято публиковать статьи на тему «SEO умерло» и «Тренды SEO в следующем году». Я такое ни разу не писал и давно не читаю, но год был настолько странным, что я решил как минимум для себя сформулировать некоторые впечатления. Итак, поехали.
Можете пожалуйста подробнее объяснить, что нужно проверить на сайте, который как написали: "любители колдовать над скоростью загрузки." как реально видят эту страницу поисковые роботы?
Вам понадобится парсер - я, к примеру, использую Screaming Frog Seo Spider. Там есть возможность выбрать User-Agent (скажем, эмуляцию гуглобота-смартфон) и режим парсинга. Они те так давно добавили наконец рендеринг JS. Таким образом, у вас есть возможность посмотреть, какие данные доступны для реального поискового бота при первичной и вторичной индексации.
Бывает так, что визуально на сайте всё хорошо, а по факту большая часть сайта (скажем, товарные карточки) - это полные или нечеткие дубли с точки зрения поисковых роботов. Частенько встречается.
Есть также плагин для Chrome - View Rendered Source. Делает примерно то же самое, но для конкретной страницы, в браузере. Можно выбрать UA и посмотреть разницу в "сырых" данных и отрендеренных. Выглядит вот так: