{"id":14104,"url":"\/distributions\/14104\/click?bit=1&hash=a427423acb5524f13c0c91bc453300f28a43a6e93cdb96062806b81eedd83767","title":"\u0423\u0432\u0435\u043b\u0438\u0447\u0438\u0442\u044c \u0442\u0440\u0430\u043d\u0437\u0430\u043a\u0446\u0438\u0438 \u043f\u043e \u043a\u0430\u0440\u0442\u0435 \u0432 4 \u0440\u0430\u0437\u0430","buttonText":"","imageUuid":""}

Новое правило оформления Robots.txt - ошибка в вебмастере дубли по Get параметрам

Всем привет, в этом посте хочу рассказать о проблеме с которой столкнулся:

В Яндекс-вебмастере вылезла ошибка о том что контент дублируется по Get параметрам.

Первым делом я решил скрыть от индексации страницы вида: /?utm&параметр&параметр через Disallow: /*?* , но ошибка в Яндекс вебмастере так и продолжала висеть в вебмастере, сколько бы я не отправлял на перепроверку.

Помог уход в сторону clean param

Таким образом, я удалил скрытие от индексации через Disallow: /*?* и прописал следующую структуру:

Clean-param: utm_source&&p&rr и т.д.

Суть использования этой диррективы в кратце - сокращение параметров в url до начальной ссылки и передача веса всех страниц с параметрами на основную страницу в моём случае.

Давайте покажу пример:

У меня были в поиске урлы вида:

/page?utm_source=4899&code=GJ3jVnX6j2lkbtXFCoM4hJyttU4dzxkYQm5UXm09TwQX&pid=7939

Следовательно в роботс добавляем:

Clean-param: utm_source&code

После обработки страницы /page?utm_source=4899&code=GJ3jVnX6j2lkbtXFCoM4hJyttU4dzxkYQm5UXm09TwQX&pid=7939 в robots.txt для поискового робота Яндекс страница будет иметь вид: /page

А весь вес страницы с параметрами передастся также /page

Параметров в одном Clean-param рекомендую указывать до 15 штук, иначе может возникнуть ситтуация что поисковой робот не сможет обработать длинную строку из 100 параметров.

Теперь ошибка из Яндекс-вебмастера ушла, все страницы с параметрами исключены и роботы индексируют сайт хорошо. Позиции выросли в 2 раза примерно.

Для Google ботов можно оставить Disallow: /*?*

Всем спасибо, надеюсь будет кому-то полезно.

0
4 комментария
Anna Petrova

Да! Супер! Спасибо 👍👍👍👍

Ответить
Развернуть ветку
Елена Павлова

Добрый день, Никита. Подскажите Clean-param прописываем тольк в файле robots.txt или же коде сайта также необходимо прописать?

Ответить
Развернуть ветку
Никита Шабалин
Автор

В robots.txt достаточно будет

Ответить
Развернуть ветку
Johanna VLong

Всех приветствую! Уверены на 100%, что многих это заинтересует, мы предлагаем дешевые, но качественные статьи по 8 рублей за 1000 символов. Заходите в магазин статей textlog.ru!

Ответить
Развернуть ветку
1 комментарий
Раскрывать всегда
{"hash":"c835bf4e","params":{"id":"https%3A%2F%2Fvk.com%2Fvideo_ext.php%3Foid%3D-212217448%26id%3D456239298%26hash%3D560698904ff0fc1d","service":3,"title":"SmartDev \u2013 \u043f\u0440\u043e \u0442\u0435\u0445\u043d\u043e\u043b\u043e\u0433\u0438\u0438","isLegacy":true,"isHidden":false}}