Виктор спасибо за лонгрид. Как всегда познавательно! Несколько вопросов.
"...Сейчас нет никакого смысла ограничивать доступ поисковых роботов к страницам пагинации или назначать канонической первую страницу листинга..."
Вопрос. Т.е. отдаем для сканирования страницы пагинации вида ?nPaginator=1&page=2#catalogItems все верно? А если их на сайте (страниц пагинаций) тысячи на категорию да и с описанием, эти 1000+ страниц пагинации потом вылетят из индекса как МПК и при этом на них потратится краулинговый бюджет, т.е. тут мы в замкнутом круге когда нам нужно просканировать все карточки товаров но на них может не хватить краулингвого бюджета потому что у нас 1000+ страниц пагинаций.
Вопрос. Как решаете, каким методом определяете почему в одной ПС количество страниц в индексе больше а в другой значительно меньше, при этом проблем со сканированием (видимых при техничке) нет.
Вопрос. Работа скрипта "ловец ботов" (если использовали), закрывает проблемы с индексацией или это просто интересная идея и сам механизм.
С пагинацией вопрос стратегический и связанный с конкретной реализацией. Задачки простые: не оставить элементы листинга без ссылок, консолидировать страницы категории и не перебить целевую страницу. В хорошем случае первая страница - это всё же хаб или полноценная посадка, при этом может быть первой станицей нескольких листингов, из разных суб-кластеров. Внутренних ссылок на неё технически тоже больше, если CMS не совсем кривая. Гугл параметры склеивать умеет, для Яндекса есть Clean-param. Вот если с консолидацией по сайту проблемы, или не нужно всё добро в индексе - тогда каноникал, или даже ноиндекс, или даже запрет на сканирование в роботс. Скажем, бывают большие и бестолковые листинги типа "товары для дома" - вот в таком случае можно и канонизировать, и блокировать с размаха. И ещё хорошая тема - это попробовать затачивать страницы пагинации под отдельные суб-кластеры или гео. Я сам скептически к этой теме относился, но видел результаты - и таки это внушает. Не универсальная тема, просто вариант для подумать.
По ловцам ботов и разнице в ПС: как по мне - сейчас неприменимо из-за практически полной непредсказуемости процессов. Нету сейчас такого, что сделал страничку - получи индекс и ранж после ближайшего апа через 5 дней. Прикупил десяток ссылок с сапы - топ-10 через 2 недели в Я, через месяц - в Г. Всё же рост интернета и увеличение нагрузок на ботов и стратегию, и тактику на корню поменяло.
Виктор спасибо за лонгрид. Как всегда познавательно!
Несколько вопросов.
"...Сейчас нет никакого смысла ограничивать доступ поисковых роботов к страницам пагинации или назначать канонической первую страницу листинга..."
Вопрос.
Т.е. отдаем для сканирования страницы пагинации вида ?nPaginator=1&page=2#catalogItems все верно? А если их на сайте (страниц пагинаций) тысячи на категорию да и с описанием, эти 1000+ страниц пагинации потом вылетят из индекса как МПК и при этом на них потратится краулинговый бюджет, т.е. тут мы в замкнутом круге когда нам нужно просканировать все карточки товаров но на них может не хватить краулингвого бюджета потому что у нас 1000+ страниц пагинаций.
Вопрос.
Как решаете, каким методом определяете почему в одной ПС количество страниц в индексе больше а в другой значительно меньше, при этом проблем со сканированием (видимых при техничке) нет.
Вопрос.
Работа скрипта "ловец ботов" (если использовали), закрывает проблемы с индексацией или это просто интересная идея и сам механизм.
Заранее спасибо за ответы.
С пагинацией вопрос стратегический и связанный с конкретной реализацией. Задачки простые: не оставить элементы листинга без ссылок, консолидировать страницы категории и не перебить целевую страницу.
В хорошем случае первая страница - это всё же хаб или полноценная посадка, при этом может быть первой станицей нескольких листингов, из разных суб-кластеров.
Внутренних ссылок на неё технически тоже больше, если CMS не совсем кривая.
Гугл параметры склеивать умеет, для Яндекса есть Clean-param.
Вот если с консолидацией по сайту проблемы, или не нужно всё добро в индексе - тогда каноникал, или даже ноиндекс, или даже запрет на сканирование в роботс. Скажем, бывают большие и бестолковые листинги типа "товары для дома" - вот в таком случае можно и канонизировать, и блокировать с размаха.
И ещё хорошая тема - это попробовать затачивать страницы пагинации под отдельные суб-кластеры или гео. Я сам скептически к этой теме относился, но видел результаты - и таки это внушает. Не универсальная тема, просто вариант для подумать.
По ловцам ботов и разнице в ПС: как по мне - сейчас неприменимо из-за практически полной непредсказуемости процессов. Нету сейчас такого, что сделал страничку - получи индекс и ранж после ближайшего апа через 5 дней. Прикупил десяток ссылок с сапы - топ-10 через 2 недели в Я, через месяц - в Г.
Всё же рост интернета и увеличение нагрузок на ботов и стратегию, и тактику на корню поменяло.