Критичная ошибка "Найдены страницы-дубли с GET-параметрами" - Как избавиться?
Критичная ошибка "Найдены страницы-дубли с GET-параметрами" - Как избавиться?
44
реклама
разместить

Два месяца назад было бы актуально особенно, сейчас уже не так )

Проставлять на страницах с GET-параметром атрибут с указанием URL канонической страницы, например, для site/category?page=2 тег будет выглядеть так

Google, например, дал однозначную рекомендацию canonical ставить на каждую страницу пагинации. Стоило об этом написать в рамках обсуждаемой темы (хотя я считаю пример в тексте не самым удачным). На моих проектах чаще ошибка с GET-параметрами не с пагинацией связана.

Закрыть через robots от индексации страницы с GET параметрами — O tempora! O mores! Рубрика "вредные советы" получилась. Эффективнее Clean Param сейчас решения нет.

Проблема в том, что если сайт средний или крупный, то отслеживать новые параметры, которые появляются до бесконечности не представляется возможным. Ну и там мы будем работать только на одну поисковую систему. А что касается тега robots, то тут идея в том, что noindex, в отличии от disallow в robots.txt, не ограничивает доступ к данной странице и ее содержимому, а значит, через закрытую страницу поисковый робот будет переходить на другие страницу, так как мы не ставим в атрибут nofollow.