SEO
Sergio Mekeda
12 969

Критическая ошибка, которая есть практически на каждом сайте

Бывает, смотришь на сайт и вроде все прекрасно: базовая оптимизация проведена, метатеги прописаны, сайт удобный и адаптивный. Даже микроразметку сделали и УТП составили. Но не лезет он в топ по нужным запросам, как его не толкают. Крутится на втором-третьем десятке как заколдованный.

В закладки

Тогда я проверяю сайт на самую распространенную и досадную ошибку – дублирование страниц. Эта проблема есть практически у всех проверяемых мной сайтов. Ее нельзя проверить автоматическими онлайн-чекерами – они не анализируют структуру сайта, поэтому эта ошибка не попадает в поле зрения новичков.

Как проверить вручную на дублирование

Очень просто. Выбираете несколько самых важных для вас запросов и вводите их в поисковой строке в таком виде: "ключевой запрос site:moisait.ru".

Вот как выглядят дублирующиеся страницы по запросу "Уборка квартир в Москве" у сайта aclean.ru

Очень грубая ошибка – главная страница имеет сразу 3 копии.

https://www.aclean.ru

https://aclean.ru

https://aclean.ru/?present=Y

Под этот же запрос оптимизирована еще и страница "О компании".

В итоге сайт находится вне топ-10

Такая же картина у сайта qlean.ru

В итоге позиции тоже вне топ-10.

А вот результат проверки на дублирующие страницы по этому же запросу топового сайта. Здесь дублей нет.

"Влажная уборка" и "генеральная уборка" хоть и похожи, но это явно другие запросы, по которым человек ищет уже конкретную услугу, а не общую фразу.

И так надо проверить все основные запросы на предмет дублирования. Есть программы "пауки", которые парсят весь сайт и дают возможность проанализировать сразу все дубли сайта.

Почему эта ошибка настолько распространена

Даже если изначально все на сайте было сделано хорошо, в процессе жизнедеятельности на нем создаются новые страницы. За семантической структурой никто не следит, и дублируются уже не просто страницы, а целые разделы.

Диагностику сайта почему-то редко проводят, хотя это очень важный этап в продвижении. Недорогая диагностика часто может выявить такие проблемы, устранение которых окупает ее стоимость стократно.

Мы регулярно проводим диагностику авто, организма, газового котла... А вот диагностику сайта почему-то не принято делать.

Поиск дублей это всего лишь один из пунктов проверки сайта на критические ошибки, которые я провожу. На самом деле есть и другие не менее важные проблемы, сильно ухудшающие показатели вашего сайта. Но об этом в следующих статьях.

{ "author_name": "Sergio Mekeda", "author_type": "self", "tags": [], "comments": 130, "likes": 12, "favorites": 137, "is_advertisement": false, "subsite_label": "seo", "id": 115745, "is_wide": false, "is_ugc": true, "date": "Fri, 27 Mar 2020 19:02:39 +0300", "is_special": false }
Объявление на vc.ru
0
130 комментариев
Популярные
По порядку
Написать комментарий...
5

Школьники - SEOшники минусуют и молчат) Теперь ведь любой может увидеть их косяки) 

Ответить
17

Не думаю, просто это настолько очевидная и детская ошибка, что складывается твердое ощущение, что статья написали ради потенциальных заказов, пиара и собственно самой ссылки.

Конечно, любой труд должен давать плоды, но так откровенно паразитировать на прописных истинах - КАК ТО НЕ ОЧЕНЬ ) Вот если бы вы - Sergio, провели исследование, написали бы подробный мануал по переезду, например, на https и сохранению трафика в google, а там сейчас все очень поломно, на объемах за 100к+ страниц. Было бы интересно, а так - детский сад какой-то. Не исключаю, что может кому то и пригодится статья, но странно, что вы как seo-специалист, а вы ведь пишите об этом. Не оформили заголовок под поисковик, что-то типа Дубли страниц - критическая ошибка всех рукожопов!

Ответить
10

Ну если это такая очевидная ошибка, почему она у практически всех сайтов? Зачем копать глубоко когда не решены такие простые и очевидные проблемы? 
Каждый кто ко мне обращался (даже после работы seoшников) имеет эти проблемы. 
ЦА статьи - владельцы сайтов. Они даже не понимают масштабов бедствия. Я пишу как им просто и легко проверить свой сайт на дубли за 2 минуты. Очевидно. что для SEOшника эта статья не несет ценности (хотя не для всех конечно).

Ответить
1

а мне статья была полезна! спасибо @Sergio Mekeda 

Ответить
0

Спасибо за высокую оценку. Это и мотивирует писать дальше!

Ответить
1

На самом деле хорошая статья. Написана как раз под нужную ЦА. Может это и не основной фактор, но такие ошибки часто встречаются и если их можно устранить, то почему это не сделать.

Ответить
1

Вот вы говорите что это "детские ошибки". А вот Qlean не смог справится с ними. Компания стоит более $50 млн.

Ответить
3

Вы и правда рекомендуете своим клиентам со страницы "О компании" или с "Главной" убрать упоминание (ключевое слово) о том что они занимаются уборками квартир?)))

Ответить
0

Сами домыслили, сделали вывод и сами удивились) Нет конечно. Достаточно просто написать релевантный и уникальный тайтл. Вот в примере с menfi показано как правильно делать тайтлы)

Ответить
0

то есть слово "уборка" должна быть только на одной странице, чтобы вы не увидели "дубли"? даже если это самый ВЧ ключ который используется по всем услугам.

Ответить
0

Вам не приходило в голову, что они клали на эти ошибки?) Кроме этого есть сотни других факторов, а в случае с Яндексом даже идеальная внутренняя оптимизация не гарантирует место в топе

Ответить
0

Причина возникновения ошибки не так важна. Важно какое влияние она оказывает. А это и "каннибализация" запросов, трата краулингового бюджета и размытые веса страниц. 
 

Ответить
4

Сергей, не переживайте. Здесь есть ребята, которые видят, что вы круче их, но они не могут писать статьи. Их задача - поднимать свою самооценку за ваш счет - критикуя и молча минусуя. Некоторые даже без ошибок комментарий написать не могут, но гонору у них, как у экспертов (хотя, сеошник, априори должен хорошо знать русский язык, ведь он работает с семантикой).

Ответить
8

Что ж у вас такое ЧСВ :).
Здесь есть ребята, которые понимают, какой должна быть статья специалиста. Также они понимают, что множество статей в данной рубрике - спамные (низкокачественные и откровенно рекламные).

Полагаю, мало быть хорошим специалистом в своей сфере, чтобы писать для публики. Поэтому есть редакторы, рецензенты, курсы и т.д.

"...хотя, сеошник, априори должен хорошо знать русский язык" - запятые не нужны :D

Ответить
1

Еще раз напишу. Эта статья для владельцев сайтов. Как за 2 минуты проверить на дубли. Проблема  важная и очень массовая. SEOшникам тут делать нечего - дубли тема известная. Хотя судя по комментам не все "сеошники" считают дублирование проблемой. 
Все обиды в комментах сводятся к "я тоже это знал и мог написать". 

Ответить
1

на самом деле, это делается не так.
Переходим в яндексе Индексирование → Страницы в поиске
Ставим фильтр на дубли, получаем за минуту список всех таких страниц
https://yandex.ru/support/webmaster/robot-workings/double.html

А пока "на самом деле" получается кликбейтный заголовок, неправильный алгоритм поиска и, не указано, как такую ошибку править (достаточно прописать каноникл)

Почему я, не сеошник, но это знаю. А вы сеошник, не знаете, но статьи пишите?

Ответить
0

Ха
Самое интересно, что ниже в комментах ссылку на эту же статью вы прилепляете (пардон, не дочитал весь тред, сразу начал писать ответ). Но правильный алгоритм поиска таких ссылок в статье не указали.

Видимо, тогда бы вся статья бы свелась к "смотрите ошибки в консоли яндекса, исправляйте их"?

Ответить
1

Спасибо за доброе слово. SEO очень специфическая сфера. Многие вещи имеют двоякую трактовку и многое быстро меняется. Но удивился, что такой простой вопрос как дубли вызвал столько сопротивления. 
 

Ответить
3

Минусуют, потому что вы выдаете желаемое за действительное.
Сайт веб студии, оооочень долгое время занимавшей топ-10
https://yandex.ru/search/?text=%D0%BF%D1%80%D0%BE%D0%B4%D0%B2%D0%B8%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5%20%D1%81%D0%B0%D0%B9%D1%82%D0%B0%20site%3Ahttps%3A%2F%2Fqweo.ru%2F&lr=213
Убедится в этом можно через мегаиндекс
https://ru.megaindex.com/analyzeword#word=%25D0%259F%25D1%2580%25D0%25BE%25D0%25B4%25D0%25B2%25D0%25B8%25D0%25B6%25D0%25B5%25D0%25BD%25D0%25B8%25D0%25B5%2520%25D1%2581%25D0%25B0%25D0%25B9%25D1%2582%25D0%25B0®ion_id=4&se=1®ion=&dates=now%3B02%2F2020%3B01%2F2020%3B12%2F2019%3B11%2F2019%3B10%2F2019%3B09%2F2019%3B08%2F2019%3B07%2F2019%3B06%2F2019%3B05%2F2019&pg=0&ser_id=1&type=month
Дубль у них был все это время, что не особо мешало нормально ранжироваться.

Ответить
0

Вы сейчас мне пытаетесь доказать, что дублирование страниц это хорошо? 

Ответить
2

нет, что это не настолько критичная ошибка, как вы заявляете
и что есть случаи, когда на это можно не обращать внимания

Ответить
1

Ну вот из-за того, что это считают что это "настолько критичная ошибка" и появляется куча мусора в индексе. Дублирование страниц это зло. Извините, но вы пытаетесь рассуждать о SEO даже не почитав базовые документы Гугла и Яндекса. Похоже новое поколение "сеошников" безнадежно! Читайте источники
https://yandex.ru/support/webmaster/robot-workings/double.html

Ответить
0

там нет ни слова о том, что дубли страниц сайта сказываются на ранжировании, не надо включать синдром вахтера

Ответить
1

Ну это как раз то SEO которое мы заслужили)  Вижу вы об инструкциях Яндекса только что узнали. Вот вам прямая цитата "Каждая страница должна быть доступна по единственному и постоянному адресу." https://yandex.ru/support/webmaster/recommendations/frequent-mistakes.html
Вообще поражает упорство с которым вы отстаиваете свою некомпетентность. Надеюсь диалог закончен. 

Ответить
5

Сергей, я вам не грубил и на личности не переходил, давайте вы попробуете так же.
Вы в статье говорите, что дубли – это однозначное зло, критическая ошибка, без которой топ-10 сайт не увидит.
Я вам привел пример, когда по конкурентному запросу, в конкурентном регионе дубль очень долгое время никак не мешал сайту занимать сайту топ-10
Вы можете это как-то прокомментировать? Или будете дальше пытаться убедить себя, что все дураки, один вы умный?

Ответить
0

Вы пытаетесь экстраполировать исключения на всю массу сайтов.  Дорвеи тоже используют несовершенство алгоритмов и получают топ выдачи. И что теперь всем надо делать дорвеи? Я устал объяснять очевидные вещи. Погуглите что-ли. Всего хорошего. Не хотел вас обидеть. 

Ответить
0

Исходя из логики автора, удаление дублей немедленно приводит к топам) жаль, что это далеко от истины, представляю как бы могло улучшиться качество сайтов в топе

Ответить
0

Зачем "исходить из логики", когда я  прямо написал: "Поиск дублей это всего лишь один из пунктов проверки сайта на критические ошибки"

Ответить
0

Только что прочитал темы для обсуждения в seo и понял, какого черта я здесь забыл, выкурили чайника, браво

Ответить
1

Если ошибка десятки лет есть у всех, то она по определению не критическая и не может быть помехой в seo (раз она у других есть)

Ответить
0

Она критически влияет на позиции. По опыту - после ее устранения сайт существенно улучшает позиции. То, что она есть на многих сайтах наоборот подтверждает важность проблемы. 

Ответить
0

если ваш сайт идеальный, для чего тогда эта страница https://digitalweb.ru/comments/
?!
и страница 404 ошибки, никак не сообщает пользователю, что он не туда попал, в связи с чем такое решение...
уверен, если порыться то можно найти еще

Ответить
1

Где я утверждал, что мой сайт идеален? Слепил на коленке за 2 часа в обеденный перерыв) 

Ответить
0

Так мало времени, что некогда свой сайт глянуть?
 Бывает, не помню кто сказал: "Стоишь такой возле зеркала и думаешь, надо что-то менять,
может быть бегать начать...
Но с понедельника глупо, лучше с первого числа..." ;)

 Помните анек, где прогер песенку напевает, про то как вместо грозы коза получилась...
от которой у гендира перед сдачей сайта неприятные предчувствия.

 Навеяло что-то, экспронт:

Сделать хотел я сайт,
А получился слайд,
Про продвиженье слайд,
В нем рукожопность вся.

Тут никто не причем,
Верьте вы мне друзья,
Жизнью ведь увлечен,
На удаленке я...

А виноватый вот,
Может быть этот кот,
С наглою мордой кот,
Он меня отвлекал...

Ответить
1

Вы сравнили конечно) Сайт Qlean стоимостью более $50 млн и сайт двух фрилансеров) Я его сделал вообще год назад в обеденный перерыв. И не для поискового продвижения.  
Но спасибо, что заглянули)

Ответить
2

у вас есть инфа по стоимости этого сайта?) 
за 200к сделаю подобный. Кто дешевле?

Ответить
0

Да двойной смысл у фразы получился) Правильно так: "Сайт компании Qlean, которая стоит более $50 млн ")

Ответить
1

Красава, за неделю второй Амазон наверное запустить мог бы)
А вообще посмеялся с большинства комментариев "специалистов" )

Ответить
1

Идеальных сайтов не бывает.
Вы еще сайт Яндекса на ошибки проверьте)) Вот удивитесь.

Ответить
0

не школьник, не сеошник и тема не особо интересна, зашел минуснуть за кликбейтный заголовок с подзаголовком. Всю суть можно было разместить в них, оставив за читателем решение идти ли ему за подробностями.

Ответить
4

Одни и те же комментарии под каждой статьей в разделе SEO: это элементарно, зачем вы об этом написали, вы бездарность, ваша студия говно...Как под копирку. Не надоело?

Ответить
4

Дарья, хорошо подметили!
Как правило, те, кто пишет такие комментарии - не являются SEO-специалистами. Точнее, они себя таковыми сами считают и повышают тем самым свою самооценку.

Ответить
0

Вам к слову тут не раз об этом намекали 😉 Вы то знаете о чём говорите 😉✌

Ответить
2

В SEO как нигде в другой сфере сложно оценить результат и квалификацию специалиста. Поэтому процент недоспециалистов здесь самый высокий. Естественно любая попытка пролить свет вызывает такую реакцию.

Я еще отчеты SEOшников коллекционирую. Вот самый эпический случай. Нулевой) https://vc.ru/seo/59385-chto-na-samom-dele-pishut-v-seo-otchetah-i-pochemu-eto-stoit-50-000-rubley

Ответить
0

Поэтому я предоставляю услуги с оплатой за конкретные работы/действия, и не продаю результат) Пусть клиент сам решает нужна ли ему эта разметка, корректный роботс, сайтмап хмл или ссылки. Выбирает из списка услуг и решает. САМ.
Не беру сайты помесячно, если есть результат клиент и сам обращается постоянно - с одним и тем же или с новыми сайтами) Правда и клиенты как правило не совсем нулевые в seo и сами знают что им нужно.
А объяснять и доказывать что необходимо сделать обязательно, а на что не стоит тратить время и деньги нет уже давно никакого желания)

Ответить
0

кроме перечисленного существует еще и техническая оптимизация сайта, свой не пробоволи до ума довести, или тоже некогда? И спасибо за минус, зацепило ведь да? ;)
А не надо ничего доказывать, уже все доказали своим сайтом яблого.

Ответить
0

Ахаха, аудит мне провели?) Спасибо, можно взглянуть? Ну и что там нужно доводить? Скорость загрузки низкая на многих страницах, но это осознанная жертва.
На счёт минуса и "зацеполо" - я даже не помню кто вы и что писали, копаться в комментах некогда, мне ж надо сайт оптимизировать)

Ответить
0

логин у Вас правильный :) burjyi, надеюсь пароль не как у  Полишинеля :) не надо оптимизировать, кому надо и так понимают уровень...

Ответить
0

Ой, да я только рад что кругом все такие умные и всё понимают) Да только мне плевать - сам разберусь что мне нужно делать со своим сайтом, ок? Речь не об этом шла вообще. Логин подобрал на wp - нашёл чём хвастаться, ахах

Ответить
0

примеры

Ответить
0

Что?

Ответить
1

Как может надоесть кидаться какашками в друг друга? Зачем по вашему комментарии? Для критики, говна и диалога!!! С Сергеем согласен, в комментах в основном пишут не seo-специалисты, а рукожопы. Может прозвучит немного обидно, но уже лет 5-7 не понимаю, как можно называть себя сеошнегом и заниматься клиентским SEO. Умеешь - делаешь свое, сделаль - запускаешь новое. Не умеешь - ищешь клиентов, пишешь обучающие материалы. Это ж не творчество, это кропотливый дроч. Ну будет у тебя 2-5-10 клиентов и? Больше ляма врятли заработаешь. Так зачем работать на кого-то, если можно на себя.

Ответить
1

Мне кажется вы как раз и раскопали корень проблемы. Толковые SEOшники работают на себя или задорого на очень крупных проектах. Нишу среднего и малого бизнеса заполонили школьники, которые мнят себя SEOшниками. И при любых попытках напомнить о базовом SEO сразу набегает толпа негодующих. Хотя дубли это базис и тут даже обсуждать нечего по сути.
И эти "школотосеошники" сидят даже не на фрилансе, а в крупных компаниях, которые у себя пишут про "SEO-оптимизацию сайта". Первый признак недоучей. 

Ответить
4

"Но об этом в следующих статьях."
Может, не надо?

Ответить
0

Надо Ольга, надо! Буду сайты спасать до последнего домена!
 

Ответить
2

Вторую статью читаю по сео на вц.
И мне нравится что написано понятным языком. 
То же самое посчитаешь на ресурсе из топа, и нихера не поймёшь.
Так что даёшь больше основ простым языком!

Ответить
1

Да именно такой и была цель! Прочитал - применил. А то пока топовые SEOшники рассуждают о кораблях бороздящих космические просторы, большинство сайтов страдают от детских ошибок. 

Ответить
2

Да жесть, иногда посмотришь выдачу по сайту, диву даёшься - ни оптимизации, ни метатегов, сплошной винегрет из обрывков смыслов..

Ответить
1

Ну это последствие того, что на входе аудит проводят будущие подрядчики, на выходе тоже они. Т.е. по сути диагностики сайта нет. И что там внутри на самом деле видит только Яндекс)

Ответить
2

Кстати, у одного из сайтов:

Ответить
0

Олдскул seo

Ответить
0

Поэтому я не была бы так категорична, как автор:
"Очень грубая ошибка – главная страница имеет сразу 3 копии."
"В итоге сайт находится вне топ-10"
* Киворды - с этого сайта

Ответить
0

Ну дубли это одна из проблем. Очень частая и досадная. А так так если ковырнуть то можно много чего наковырять)

Ответить
0

Охренеть! На дворе 2020 год. Гугл 11 лет как не смотрит на keywords))

Ответить
0

Статья ради статьи.

Ответить
0

а ваш сайт само совершенство, и претендует на звание мега - идеального? 

Ответить
2

Похоже вас статья тоже обидела? Не хотел. Честно. Насчет моего сайта - нет идеальных сайтов. Задача моего - конверсия трафика с контента. И с этой задачей он справляется.  

Ответить
1

ой... :)

не видел

 >Задача моего - конверсия трафика с контент

Ну наверное все ок...

Мне как-то помимо объяснения про сапожника без сапог написали, что у сайта есть еще одна опция, выбирать из ЦА нужный сегмент...

 А иначе таким шибко умным клиентам как я сложно доказать что-то... дескать на сайте менять хрень какую-нить надо пару дней, и это обойдется в приличную сумму...
поскольку я это меняю за пару минут к примеру в css

Ответить
0

Все верно! Как можно делать сайт себе когда надо столько работы надо сделать клиенту? Все силы бросаем на заказчиков! Вот кстати что получается, если пропустили наш кейс https://digitalweb.ru/za-god-trafik-vyros-v-48-raz/

Ответить
0

нет конкретики, какие хотя бы 10 словосочетаний с запросами более 1000 в топ 1? И конкурент Biletix для примера в три раза лучше...

Ответить
0

Сейчас в SEO уже другие метрики. 
Давно никто уже не меряется позициями. Это промежуточная цель. Главное трафик.
Также никто уже не продвигается по запросу - по группе запросов. Длинна запросов сейчас растет. Средняя длинна сейчас 5-6 слов. 

Но раз уж так хотите вот вам топ1 по запросу частотой 1500 

Ответить
0

трафик не менялся уже полгода как, в январе слегка просел, потому и спросил, ладно это ерунда. Лучше ответьте на вопрос какая критическая ошибка на сайте, из-за которой такой высокий процент отказов? И потому же мало переходов с Aviasales.
Ответ лежит на поверхности. Можно не отвечать, а со временем как-то ее исправить, если не хотите как и я плодить тут конкуренцию и просто написать, что исправили.

Ответить
0

На информационных сайтах заточеных под поисковый трафик это нормально когда человек получил ответ и ушел. Не путайте информационный сайт с онлайн-сервисом и магазином. 
У нас задача была писать оптимизированные статьи и получать трафик, с чем мы успешно и справились. 
И еще. Почему там должны быть переходы с Aviasales? 

Ответить
1

Так есть же тег meta[rel="canonical"]. И если все "дубликаты" имеют одинаковый "canonical" URL то и восприниматься они должны как одна и та же страница Но под разными URL. То есть эта проблема решается тривиально, разве нет?

Ответить
0

Да конечно. Но если указана каноническая страница, то дублей не будет в индексе. Поэтому я и написал о проверке через Яндекс. Точнее всего смотреть глазами поисковика. 
Вообще проблема с дублями еще решается через robots.txt или через переписывание метатегов. Зависит от того какова природа дубля. 

Ответить
1

Очень часто существуют страницы на которые могут передаваться доп. параметры. Ну, взять хотя бы этот материал:
https://vc.ru/seo/115745-kriticheskaya-oshibka-kotoraya-est-prakticheski-na-kazhdom-sayte — обычная ссылка
https://vc.ru/seo/115745-kriticheskaya-oshibka-kotoraya-est-prakticheski-na-kazhdom-sayte?comment=1727754 — ссылка на комментарий на этой же странице.
Технически это разные URL, но достаточно просто добавить
link[rel="canonical"] и забыть об этой проблеме. Большинство CMS, как на пример WordPress делает это автоматически, так что вам даже думать об этом не нужно.

Ответить
0

Вордпресс в этом плане молодцы - почти все базовые требования кстати в движок встроили. В том же Битриксе надо допиливать в htaccess редиректы и 404 ответы делать. Дублирует по всем параметрам. 

Ответить
1

Статья по типу "Учёные выяснили критическую причину смерти: Люди которые дышат - 100% умрут"

Ответить
0

Почти, но не умрут, а останутся без топа. И не все, а только те которые с дублями)

Ответить
1

И мне была полезна!

Ответить
1

Такая маленькая статейка чтобы ненароком себя прорекламировать. Молодец!

Ответить
1

Автор считает, что статья поможет владельцам сайтов решить проблему дублей. Надеюсь, что так и будет.
Однако прошу автора учиться писать, чтобы и самому потом не было мучительно больно.

Нарушение логики:
1.
"Очень грубая ошибка – главная страница имеет сразу 3 копии."
"В итоге сайт находится вне топ-10"
"А вот результат проверки на дублирующие страницы по этому же запросу топового сайта. Здесь дублей нет."

На самом деле такая жёсткая связь?! Или вы хотите сказать что-то другое? 

2. 
"Тогда я проверяю сайт на самую распространенную и досадную ошибку – дублирование страниц."
"И так надо проверить все основные запросы на предмет дублирования." 
Это ведь разные темы, нет?

В первом случае речь о полных дублях страниц. Во втором - о релевантности страниц одному запросу.
Ещё один сайт из статьи имеет не полные дубли страниц, а дубли title. Возможно, с контентом тоже не всё гладко и много совпадений, но это уже следующая проблема.

Ответить
0

Есть дубли полные и неполные. Когда совпадет тайтл и/или часть контента - это неполный дубль.  Выше я писал с примерами от qlean.ru. Так что логика прямая.

Ответить
0

Выше - это в комментарии?
Мы ведь статью обсуждаем, которая должна обучать новичков.
Проблема статьи не в том, что тема неактуальная.  Актуальная. 

Ответить
0

Я посчитал, что в данном случае оба варианта (полный дубль и не полный) это ошибка, так как последствия одинаковые.  Способы устранения разные. Но это уже в каждом конкретном случае должен решать специалист. Переписывать метатеги, прописывать кононический, закрывать от индекса или править htaccess.

Ответить
0

Вот, можете, когда вас к стене припереть :) Пишите статьи сразу по уму, тогда не будет / будет меньше вопросов и претензий.

Ответить
0

Ок, учту в следующий раз) Сложен выбор между краткостью и полнотой)

Ответить
0

Просьба автора просветить на счет дублей страниц при пагинации каталога. Критично? Как устранить?

Ответить
0

Да критично. Особенно если учесть, что раздел каталога обычно оптимизирован под важные средне- и высокочастотные запросы.
 Самый простой (но не лучший) способ закрыть в robots.txt все кроме основной. Например вот так:
 Disallow: /page/* или Disallow: /*/?page= (как у вас это реализовано я не знаю)
 Правильнее прописать rel=canonical для всех дублирующихся страниц с указанием основной. Этот вариант лучше. 
 Самый крутой вариант это вообще отсутствие пагинации, как на vc например.
Тогда все записи на одной странице просто подгружаются бесконечно. Это делают при помощи яваскрипт фреймворков. Тогда и поведенческие сохраняются. Это конечно идеал, но надо весь сайт переделывать, что недешево. 

Ответить
1

Подскажите, а если на странице категории нету каноникала, но есть уникализация тайтла, мета, h1 для страниц пагинации. В индексе есть страницы вида, к примеру, жёлтый слон, жёлтый слон страница 1, жёлтый слон страница 2. Это не дубли, но не будет ли проблем с каннибализацией?

Ответить
1

По запросу "желтый слон" будут дубли. Тайтл то по сути одинаковый. Контент тоже почти идентичный. Надо или в robots.txt закрывать или каноникал прописывать. 

Ответить
0

Спасибо за оперативный ответ. Но контент не идентичный на страницах пагинации - там свои листинг товаров, который полезен для посетителей. 
Хорошо, давайте конкретней запрос: мобильные телефоны Нокиа, к примеру, для него есть тайтл : Купить мобильные телефоны Нокиа в Москве, а для страниц пагинации : Купить мобильные телефоны Нокиа в Москве Страница 1 и т.д. 
То есть все равно по запросу Купить мобильные телефоны Нокиа будут страницы конкурировать между собой по семантике?

Ответить
0

Вообще в чем ключевая проблема дублей. Когда человек банально вводит запрос "телефон нокия", поисковик должен предложить ему лучший результат. Поскольку непонятно что имел человек ввиду ("нокия красная" или "нокия 3301") то лучшим ответом будет страница где есть все модели нокии. У вас таких страниц 5. Какая из них более релевантна? Поисковик отдаст предпочтение странице у которой все модели на одной странице размещены. Затем странице, на которой не все модели, но есть ссылки на другие. Сайт у которого 5 страниц одновременно претендуют на место в выдаче по запросу "телефон нокия" он будет ранжировать хуже всего. Если вы не смогли выбрать и предоставить роботу самую релевантную запросу страницу почему он должен это делать за вас? В лучшем случае робот будет по очереди предлагать пользователям разные страницы по очереди. В итоге он сам выберет лучшую анализируя поведенческие. Но статистику поведенческих проще и быстрее собрать на одной странице чем на пяти. Плюс есть такое понятие как "краулинговый бюджет". Можности поисковика не бесконечны и он не готов тратить вычислительные ресурсы на ваш сайт. Дубли как раз и тратят этот бюджет и замедляют как индексирование так и скорость продвижения. Робот естественно выберет для топа наиболее оптимизированные страницы без дублей.   

Ответить
0

Как в таком случае лучше тогда поступить? Каноникал на главную страницу каталога и помаксиму выводить ассортимент на листинге?
Для посетителей можно бесконечную подгрузку товаров сделать. А для робота как в коде реализовать? Можете пример скинуть, если не тяжело.
И ещё, что делать со страницами пагинации, принудительно удалить с индекса и кинуть в мета роботс или x-роботс тег? 
Благодарю за ответы!

Ответить
0

Конечно идеальный вариант это яваскрипт фреймворк, который будет бесконечно подгружать листинг каталога.
Такой вариант реализован на vc. Здесь нет пагинации. Но это дорого и требует переработки сайта.
 Второй вариант. Выводить по максимуму (но не слишком много, чтобы не ухудшить скорость загрузки - это важно!)

На всех страницах раздела разместить link rel="canonical" href="https://domain.ru/mobile/nokia";
   Тогда у вас робот в индекс запустит главную страницу раздела. Остальные страницы при этом не будут в выдаче хотя робот будет их посещать. Он будет видеть, что все страницы пагинации имеют один канонический урл.  
Закрыть в robots не лучший вариант. Тогда робот будет видеть только одну страницу раздела. 

Ответить
1

Благодарю, это меня и интересовало.

Ответить
0

Извините. А разве страницы где есть параметр после знака ? должны учитываться поисковиками как самостоятельные. Может это индексироваться, но не влиять на дубли?

Ответить
1

Если нет запрета в robots.txt то все индексируется. Есть даже сайты у которых вся навигация построена на  GET запросах типа /?p=178  и их индексируют поисковики. 

Ответить
0

Вопрос был про дубли. Будут ли они считаться как дубли с пессимизацией?

Ответить
0

Урл отличается значит дубль. Яндекс может выбросить на свое усмотрение любые из индекса и оставить одну. Гугл может воспринять как попытку манипулированием выдачей  и пессимизировать. 
В вордпрессе автоматом указывается канонический урл для всех таких страниц поэтому на нем дубли автоматом не создаются. На Битриксе все хуже. Вот например 
http://tso174.ru/objects/index.php
http://tso174.ru/objects/

Ответить
1

не, ну такой редирект-то обязан быть на сайте с самого рождения.Странно, что у вас так отрабатывает...

Ответить
0

Это проблема Битрикса. Вордпресс на такое даже не проверяю. Там все уже в движке. Битрикс надо допиливать)

Ответить
0

Урл конечно отличается, но и контент так же отличается. Будут ли они считаться как дубли с пессимизацией?

Ответить
0

Если содержание и урл разные то это не дубли. Главное еще чтобы тайтлы и h1 отличались. Тогда это однозначно разные страницы. 

Ответить
0

Тайтлы и мета не отличаются не отличаются. Будет пессимизация. Как узнать?

Ответить
0

Грубо говоря тайтл это вывеска. Если вы на две страницы вешаете одинаковый тайтл то вы на одну беговую дорожку ставите двух своих бегунов. В итоге они будут мешать друг другу. Если содержание разное просто перепишите тайтлы.   

Ответить
0

Просьба ответить на вопрос в ракурсе пагинации на сайте. Будет пессимизация. Как узнать?

Ответить
0

Санкций за дубли нет. Сайт просто будет понижен в выдаче (по сути поисковик это сплошной фильтр, все сайты не на топ1 отфильтрованы). За что сайт понижен точно никто не скажет - надо просто смотреть какие важные ошибки на сайте и исправлять их. 

Ответить
0

Просьба уточнить. Понижен весь сайт или страницы дубли?
И главное. Если убрать этот дубль. Сайт вернется?

Ответить
0

Такие технические дубли решаются простым добавлением метатега  rel="canonical".  Здесь уже какое окончание бы не было робот будет видеть что у данной страницы один истинный урл - его он и будет индексировать, остальные игнорировать. 
 

Ответить
0

Мои сеошники уже полгода голосят, что это так и осталось всего лишь рекомендацией))) Увы и ах.
Яндексу-гуглу надо больше качественныхсайтов, черт их побери...

Ответить
0

Правильно, rel="canonical" это всего лишь инструмент. Если проблем с дублями нет, то его можно и не использовать. 

Ответить
0

Я чайник. Но могу сказать, что недавно нужно было найти битые ссылки (почему-то редиректы слетели пока была в отпуске и не следила за сайтом). Без особого труда бесплатно нашла сервис, который показал и битые ссылки, и функция дубликат там есть. Реклама себя, рассчитанная на идиотов. Уж зеркало сайта, чтобы не было дубликат главной страницы, все настраивают

Ответить
2

Чем больше человек не разбирается в теме, тем категоричнее его вывод) Чекеры могут показать полные дубли, но частичные только руками надо искать. Как это сделать и описано в моей статье)

Ответить
0

Сейчас все крутят ПФ и глубоко клали на оптимизацию и прочее. Все проще чем когда либо. Делается 10 сайтов, у всех начинают крутить ПФ, через месяц 5 сайтов в топ 5, остальные забанены или в топ 10-15. Еще через пару месяцев их банят, но на подходе уже новая пачка сайтов. На всё остальное сейчас все забили 

Ответить
1

Черное и серое SEO было есть и будет. Раньше спамили ключевиками, потом на ссылках дорвеи делали. Сейчас ПФ крутят. Но это никак не отменяет белого SEO.

Ответить
1

Крутит поведенческие актуально для фирм однодневок.
Для серьезных сайтов - это не вариант.
Представьте, например, сайт компании Ашманов или Пиксель, которые каждый месяц открывают новый сайт.... Бред.

Ответить
0

Ашманов и Пиксель крутят сотни сайтов) в месяц, просто потом трафик с них  перенаправляют на главный "Белый и пушистый сайт"

Ответить
0

Спасибо, действительно очень частая ошибка. 

Ответить
0

Школьники - SEOшники минусуют и молчат) Теперь ведь любой может увидеть их косяки)

К сожалению мы живем в такое время, когда недоученные "seo специалисты" и шарлатаны процветают... и выход один смотрите на их сайт, если он сделан некачественно, делайте соответствующий вывод, прежде чем доверять им свой. 

Любые отмазки типа: "за две минуты на коленке" не рассматриваются. 
И они очень не любят, когда намекаешь им просто на низкий уровень компетентности.

Но самое плохое, с чем столкнулся я, это то, что эти лентяи перерастают в мошенников, в последнем случае фрилансер клиенту установил код, позволяющий торговать ссылками с его сайта.

Ответить
0

Согласен. Проблема серьезная. SEO очень запутанная тема поэтому выдающих себя за SEOшников очень много.
Вот я и задумал цикл статей о том как без специальных знаний и программ оценить уровень своего сайта. 

Ответить
0

Все это чушняк полный сео это эксперимент у каждого он свой , клиенты экспериментируют бюджетами , хотят за бесплатно нанять хорошего специалиста который будет круглосуточно сидеть и думать над их бизнесом . Это очень хорошо что есть хорошие и плохие специалисты есть с чем сравнивать клиенту

Ответить
0

Это не дублирование страниц, дубли это дубли имхо.
В ваших примерах речь не про дубли.
 
И вообще не понятно о чем разговор... да, влажная уборка и генеральная это разные ключи. Под них разные страницы. Вы ищите по сайту страницу со фразой уборка.... блин, естественно вам будут показаны все страницы по уборке. А вы, что ожидали увидеть?

Ответить
0

Вот, например, такой тайтл сразу у трех страниц сайта (у главной тоже почти такой же)

"Уборка квартир в Москве: доступные цены на уборку частных квартир — заказать уборку квартиры в клининговой компании Qlean "
https://qlean.ru/vidy-uborok/generalnaya-uborka-kvartiry

https://qlean.ru/tseny-na-uborku-kvartir

https://qlean.ru/vidy-uborok/ezhednevnaya-uborka-kvartiry

 По содержанию они отличаются не принципиально. Многие блоки повторяют друг-друга слово в слово. Это не полные дубли. Но это все таки дубли. Надо уникализировать тайтлы. 

Ответить
0

По влажной уборке и генеральной уборке как раз все норм. Я привел его как правильный пример. Это другие запросы. 

Ответить
0

Это не дубли для Яндекса, и это главное. Лечится это дерьмо ноуиндекс+каноникал ( в яндексе) , если коненчо это надо лечить.

А в первом примере - нужно убрать запретить ? В роботсе, и сделать зеркало c www, но для начала я бы ещё глянул как это всё ранжируется.

Ответить
0

По такому запросу думаю даже на 50 позиции идеальный сайт будет) Конкуренция. 

Ответить
0

Дубль это просто самая распространенная и досадная проблема. Одна из. Я проверяю сайт по более чем 50 пунктам. И это только самое важное.

Ответить

Прямой эфир