Индексирование на практике

Индексирование вашего контента – это не право. Это привилегия. Времена, когда поисковики брали в индекс всё, безвозвратно прошли. Теперь для того, чтобы внести новый URL в индекс, поисковикам нужны особые причины.

2323

Виктор спасибо за лонгрид. Как всегда познавательно!
Несколько вопросов.

"...Сейчас нет никакого смысла ограничивать доступ поисковых роботов к страницам пагинации или назначать канонической первую страницу листинга..."

Вопрос.
Т.е. отдаем для сканирования страницы пагинации вида ?nPaginator=1&page=2#catalogItems все верно? А если их на сайте (страниц пагинаций) тысячи на категорию да и с описанием, эти 1000+ страниц пагинации потом вылетят из индекса как МПК и при этом на них потратится краулинговый бюджет, т.е. тут мы в замкнутом круге когда нам нужно просканировать все карточки товаров но на них может не хватить краулингвого бюджета потому что у нас 1000+ страниц пагинаций.

Вопрос.
Как решаете, каким методом определяете почему в одной ПС количество страниц в индексе больше а в другой значительно меньше, при этом проблем со сканированием (видимых при техничке) нет.

Вопрос.
Работа скрипта "ловец ботов" (если использовали), закрывает проблемы с индексацией или это просто интересная идея и сам механизм.

Заранее спасибо за ответы.

2
Ответить

С пагинацией вопрос стратегический и связанный с конкретной реализацией. Задачки простые: не оставить элементы листинга без ссылок, консолидировать страницы категории и не перебить целевую страницу.
В хорошем случае первая страница - это всё же хаб или полноценная посадка, при этом может быть первой станицей нескольких листингов, из разных суб-кластеров.
Внутренних ссылок на неё технически тоже больше, если CMS не совсем кривая.
Гугл параметры склеивать умеет, для Яндекса есть Clean-param.
Вот если с консолидацией по сайту проблемы, или не нужно всё добро в индексе - тогда каноникал, или даже ноиндекс, или даже запрет на сканирование в роботс. Скажем, бывают большие и бестолковые листинги типа "товары для дома" - вот в таком случае можно и канонизировать, и блокировать с размаха.
И ещё хорошая тема - это попробовать затачивать страницы пагинации под отдельные суб-кластеры или гео. Я сам скептически к этой теме относился, но видел результаты - и таки это внушает. Не универсальная тема, просто вариант для подумать.

2
Ответить

По ловцам ботов и разнице в ПС: как по мне - сейчас неприменимо из-за практически полной непредсказуемости процессов. Нету сейчас такого, что сделал страничку - получи индекс и ранж после ближайшего апа через 5 дней. Прикупил десяток ссылок с сапы - топ-10 через 2 недели в Я, через месяц - в Г.
Всё же рост интернета и увеличение нагрузок на ботов и стратегию, и тактику на корню поменяло.

2
Ответить