Критическая ошибка, которая есть практически на каждом сайте

Бывает, смотришь на сайт и вроде все прекрасно: базовая оптимизация проведена, метатеги прописаны, сайт удобный и адаптивный. Даже микроразметку сделали и УТП составили. Но не лезет он в топ по нужным запросам, как его не толкают. Крутится на втором-третьем десятке как заколдованный.

2323 показа
17K17K открытий

Просьба автора просветить на счет дублей страниц при пагинации каталога. Критично? Как устранить?

Ответить

Да критично. Особенно если учесть, что раздел каталога обычно оптимизирован под важные средне- и высокочастотные запросы.
 Самый простой (но не лучший) способ закрыть в robots.txt все кроме основной. Например вот так:
 Disallow: /page/* или Disallow: /*/?page= (как у вас это реализовано я не знаю)
 Правильнее прописать rel=canonical для всех дублирующихся страниц с указанием основной. Этот вариант лучше. 
 Самый крутой вариант это вообще отсутствие пагинации, как на vc например.
Тогда все записи на одной странице просто подгружаются бесконечно. Это делают при помощи яваскрипт фреймворков. Тогда и поведенческие сохраняются. Это конечно идеал, но надо весь сайт переделывать, что недешево. 

Ответить