А теперь небольшая интерлюдия на тему индексов. В статье об индексах и индексировании я уже затрагивал эту тему: не существует единого поискового индекса. Нет даже чёткой и понятной системы взаимосвязанных индексов. Есть множество разрозненных списков URL, метаданных, ключевых слов, текстовых фрагментов, картинок и т.д. и т.п. Пытаясь понять, что происходит вообще и что пошло не так, надо помнить, что цельной системы индексирования не существует. От вас вообще мало что зависит в этом вопросе, есть лишь некоторый обязательный минимум действий, которые вы должны выполнить, чтобы улучшить шансы.
Виктор спасибо за лонгрид. Как всегда познавательно!
Несколько вопросов.
"...Сейчас нет никакого смысла ограничивать доступ поисковых роботов к страницам пагинации или назначать канонической первую страницу листинга..."
Вопрос.
Т.е. отдаем для сканирования страницы пагинации вида ?nPaginator=1&page=2#catalogItems все верно? А если их на сайте (страниц пагинаций) тысячи на категорию да и с описанием, эти 1000+ страниц пагинации потом вылетят из индекса как МПК и при этом на них потратится краулинговый бюджет, т.е. тут мы в замкнутом круге когда нам нужно просканировать все карточки товаров но на них может не хватить краулингвого бюджета потому что у нас 1000+ страниц пагинаций.
Вопрос.
Как решаете, каким методом определяете почему в одной ПС количество страниц в индексе больше а в другой значительно меньше, при этом проблем со сканированием (видимых при техничке) нет.
Вопрос.
Работа скрипта "ловец ботов" (если использовали), закрывает проблемы с индексацией или это просто интересная идея и сам механизм.
Заранее спасибо за ответы.
С пагинацией вопрос стратегический и связанный с конкретной реализацией. Задачки простые: не оставить элементы листинга без ссылок, консолидировать страницы категории и не перебить целевую страницу.
В хорошем случае первая страница - это всё же хаб или полноценная посадка, при этом может быть первой станицей нескольких листингов, из разных суб-кластеров.
Внутренних ссылок на неё технически тоже больше, если CMS не совсем кривая.
Гугл параметры склеивать умеет, для Яндекса есть Clean-param.
Вот если с консолидацией по сайту проблемы, или не нужно всё добро в индексе - тогда каноникал, или даже ноиндекс, или даже запрет на сканирование в роботс. Скажем, бывают большие и бестолковые листинги типа "товары для дома" - вот в таком случае можно и канонизировать, и блокировать с размаха.
И ещё хорошая тема - это попробовать затачивать страницы пагинации под отдельные суб-кластеры или гео. Я сам скептически к этой теме относился, но видел результаты - и таки это внушает. Не универсальная тема, просто вариант для подумать.
По ловцам ботов и разнице в ПС: как по мне - сейчас неприменимо из-за практически полной непредсказуемости процессов. Нету сейчас такого, что сделал страничку - получи индекс и ранж после ближайшего апа через 5 дней. Прикупил десяток ссылок с сапы - топ-10 через 2 недели в Я, через месяц - в Г.
Всё же рост интернета и увеличение нагрузок на ботов и стратегию, и тактику на корню поменяло.
Виктор ваши статьи всегда глоток свежего воздуха
Пишите больше
На попдпаках для регионалки, дублированный контент, что может помочь их заидексировать/ мпк висит уже пару месяцев/ постраничный в вебмастере..
Если сам по себе контент там не расценивается как спам - то просто трафик. Яндекс сейчас лепит МПК практически только за то, что не может оценить ПФ. Для примера: знаю сайты с очень низкой частотностью, где главная страница - топ-3 в своей тематике, при этом регулярно выхватывает статус МПК, не теряя позиций в топах.
Вариант преимущественно один: трафик. Директ, или боты, или любой другой. Если на страницу есть хотя бы единичные переходы, в том числе в рамках сайта - МПК снимается.
Сказать честно, у меня за 20 лет никогда не было проблем с индексацией страниц, ни новых, ни старых. Всегда индексировались нормально.