{"id":14262,"url":"\/distributions\/14262\/click?bit=1&hash=8ff33b918bfe3f5206b0198c93dd25bdafcdc76b2eaa61d9664863bd76247e56","title":"\u041f\u0440\u0435\u0434\u043b\u043e\u0436\u0438\u0442\u0435 \u041c\u043e\u0441\u043a\u0432\u0435 \u0438\u043d\u043d\u043e\u0432\u0430\u0446\u0438\u044e \u0438 \u043f\u043e\u043b\u0443\u0447\u0438\u0442\u0435 \u0434\u043e 1,5 \u043c\u043b\u043d \u0440\u0443\u0431\u043b\u0435\u0439","buttonText":"\u041f\u043e\u0434\u0440\u043e\u0431\u043d\u0435\u0435","imageUuid":"726c984a-5b07-5c75-81f7-6664571134e6"}

Критическая ошибка, которая есть практически на каждом сайте

Бывает, смотришь на сайт и вроде все прекрасно: базовая оптимизация проведена, метатеги прописаны, сайт удобный и адаптивный. Даже микроразметку сделали и УТП составили. Но не лезет он в топ по нужным запросам, как его не толкают. Крутится на втором-третьем десятке как заколдованный.

Тогда я проверяю сайт на самую распространенную и досадную ошибку – дублирование страниц. Эта проблема есть практически у всех проверяемых мной сайтов. Ее нельзя проверить автоматическими онлайн-чекерами – они не анализируют структуру сайта, поэтому эта ошибка не попадает в поле зрения новичков.

Как проверить вручную на дублирование

Очень просто. Выбираете несколько самых важных для вас запросов и вводите их в поисковой строке в таком виде: "ключевой запрос site:moisait.ru".

Вот как выглядят дублирующиеся страницы по запросу "Уборка квартир в Москве" у сайта aclean.ru

Очень грубая ошибка – главная страница имеет сразу 3 копии.

https://www.aclean.ru

https://aclean.ru

https://aclean.ru/?present=Y

Под этот же запрос оптимизирована еще и страница "О компании".

В итоге сайт находится вне топ-10

Такая же картина у сайта qlean.ru

В итоге позиции тоже вне топ-10.

А вот результат проверки на дублирующие страницы по этому же запросу топового сайта. Здесь дублей нет.

"Влажная уборка" и "генеральная уборка" хоть и похожи, но это явно другие запросы, по которым человек ищет уже конкретную услугу, а не общую фразу.

И так надо проверить все основные запросы на предмет дублирования. Есть программы "пауки", которые парсят весь сайт и дают возможность проанализировать сразу все дубли сайта.

Почему эта ошибка настолько распространена

Даже если изначально все на сайте было сделано хорошо, в процессе жизнедеятельности на нем создаются новые страницы. За семантической структурой никто не следит, и дублируются уже не просто страницы, а целые разделы.

Диагностику сайта почему-то редко проводят, хотя это очень важный этап в продвижении. Недорогая диагностика часто может выявить такие проблемы, устранение которых окупает ее стоимость стократно.

Мы регулярно проводим диагностику авто, организма, газового котла... А вот диагностику сайта почему-то не принято делать.

Поиск дублей это всего лишь один из пунктов проверки сайта на критические ошибки, которые я провожу. На самом деле есть и другие не менее важные проблемы, сильно ухудшающие показатели вашего сайта. Но об этом в следующих статьях.

0
131 комментарий
Написать комментарий...
Sergio Mekeda
Автор

Школьники - SEOшники минусуют и молчат) Теперь ведь любой может увидеть их косяки) 

Ответить
Развернуть ветку
Sergey

Не думаю, просто это настолько очевидная и детская ошибка, что складывается твердое ощущение, что статья написали ради потенциальных заказов, пиара и собственно самой ссылки.

Конечно, любой труд должен давать плоды, но так откровенно паразитировать на прописных истинах - КАК ТО НЕ ОЧЕНЬ ) Вот если бы вы - Sergio, провели исследование, написали бы подробный мануал по переезду, например, на https и сохранению трафика в google, а там сейчас все очень поломно, на объемах за 100к+ страниц. Было бы интересно, а так - детский сад какой-то. Не исключаю, что может кому то и пригодится статья, но странно, что вы как seo-специалист, а вы ведь пишите об этом. Не оформили заголовок под поисковик, что-то типа Дубли страниц - критическая ошибка всех рукожопов!

Ответить
Развернуть ветку
10 комментариев
Креативный маркетолог

Сергей, не переживайте. Здесь есть ребята, которые видят, что вы круче их, но они не могут писать статьи. Их задача - поднимать свою самооценку за ваш счет - критикуя и молча минусуя. Некоторые даже без ошибок комментарий написать не могут, но гонору у них, как у экспертов (хотя, сеошник, априори должен хорошо знать русский язык, ведь он работает с семантикой).

Ответить
Развернуть ветку
5 комментариев
Aleksey Anisin

Минусуют, потому что вы выдаете желаемое за действительное.
Сайт веб студии, оооочень долгое время занимавшей топ-10
https://yandex.ru/search/?text=%D0%BF%D1%80%D0%BE%D0%B4%D0%B2%D0%B8%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5%20%D1%81%D0%B0%D0%B9%D1%82%D0%B0%20site%3Ahttps%3A%2F%2Fqweo.ru%2F&lr=213
Убедится в этом можно через мегаиндекс
https://ru.megaindex.com/analyzeword#word=%25D0%259F%25D1%2580%25D0%25BE%25D0%25B4%25D0%25B2%25D0%25B8%25D0%25B6%25D0%25B5%25D0%25BD%25D0%25B8%25D0%25B5%2520%25D1%2581%25D0%25B0%25D0%25B9%25D1%2582%25D0%25B0®ion_id=4&se=1®ion=&dates=now%3B02%2F2020%3B01%2F2020%3B12%2F2019%3B11%2F2019%3B10%2F2019%3B09%2F2019%3B08%2F2019%3B07%2F2019%3B06%2F2019%3B05%2F2019&pg=0&ser_id=1&type=month
Дубль у них был все это время, что не особо мешало нормально ранжироваться.

Ответить
Развернуть ветку
10 комментариев
Семен Смирнов

Если ошибка десятки лет есть у всех, то она по определению не критическая и не может быть помехой в seo (раз она у других есть)

Ответить
Развернуть ветку
1 комментарий
Gleb Orlov

если ваш сайт идеальный, для чего тогда эта страница https://digitalweb.ru/comments/
?!
и страница 404 ошибки, никак не сообщает пользователю, что он не туда попал, в связи с чем такое решение...
уверен, если порыться то можно найти еще

Ответить
Развернуть ветку
7 комментариев
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Дарья Сазанова

Одни и те же комментарии под каждой статьей в разделе SEO: это элементарно, зачем вы об этом написали, вы бездарность, ваша студия говно...Как под копирку. Не надоело?

Ответить
Развернуть ветку
Креативный маркетолог

Дарья, хорошо подметили!
Как правило, те, кто пишет такие комментарии - не являются SEO-специалистами. Точнее, они себя таковыми сами считают и повышают тем самым свою самооценку.

Ответить
Развернуть ветку
1 комментарий
Sergio Mekeda
Автор

В SEO как нигде в другой сфере сложно оценить результат и квалификацию специалиста. Поэтому процент недоспециалистов здесь самый высокий. Естественно любая попытка пролить свет вызывает такую реакцию.

Я еще отчеты SEOшников коллекционирую. Вот самый эпический случай. Нулевой) https://vc.ru/seo/59385-chto-na-samom-dele-pishut-v-seo-otchetah-i-pochemu-eto-stoit-50-000-rubley

Ответить
Развернуть ветку
7 комментариев
Sergey

Как может надоесть кидаться какашками в друг друга? Зачем по вашему комментарии? Для критики, говна и диалога!!! С Сергеем согласен, в комментах в основном пишут не seo-специалисты, а рукожопы. Может прозвучит немного обидно, но уже лет 5-7 не понимаю, как можно называть себя сеошнегом и заниматься клиентским SEO. Умеешь - делаешь свое, сделаль - запускаешь новое. Не умеешь - ищешь клиентов, пишешь обучающие материалы. Это ж не творчество, это кропотливый дроч. Ну будет у тебя 2-5-10 клиентов и? Больше ляма врятли заработаешь. Так зачем работать на кого-то, если можно на себя.

Ответить
Развернуть ветку
1 комментарий
Чайка О.

"Но об этом в следующих статьях."
Может, не надо?

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Надо Ольга, надо! Буду сайты спасать до последнего домена!
 

Ответить
Развернуть ветку
1 комментарий
Олег Барминов

Вторую статью читаю по сео на вц.
И мне нравится что написано понятным языком. 
То же самое посчитаешь на ресурсе из топа, и нихера не поймёшь.
Так что даёшь больше основ простым языком!

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Да именно такой и была цель! Прочитал - применил. А то пока топовые SEOшники рассуждают о кораблях бороздящих космические просторы, большинство сайтов страдают от детских ошибок. 

Ответить
Развернуть ветку
Пётр Иванов

Да жесть, иногда посмотришь выдачу по сайту, диву даёшься - ни оптимизации, ни метатегов, сплошной винегрет из обрывков смыслов..

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Ну это последствие того, что на входе аудит проводят будущие подрядчики, на выходе тоже они. Т.е. по сути диагностики сайта нет. И что там внутри на самом деле видит только Яндекс)

Ответить
Развернуть ветку
Чайка О.

Кстати, у одного из сайтов:

Ответить
Развернуть ветку
Иван Глухов

Олдскул seo

Ответить
Развернуть ветку
2 комментария
Sergio Mekeda
Автор

Охренеть! На дворе 2020 год. Гугл 11 лет как не смотрит на keywords))

Ответить
Развернуть ветку
spesya spam

Статья ради статьи.

Ответить
Развернуть ветку
Gleb Orlov

а ваш сайт само совершенство, и претендует на звание мега - идеального? 

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Похоже вас статья тоже обидела? Не хотел. Честно. Насчет моего сайта - нет идеальных сайтов. Задача моего - конверсия трафика с контента. И с этой задачей он справляется.  

Ответить
Развернуть ветку
6 комментариев
Олександр Козак

Так есть же тег meta[rel="canonical"]. И если все "дубликаты" имеют одинаковый "canonical" URL то и восприниматься они должны как одна и та же страница Но под разными URL. То есть эта проблема решается тривиально, разве нет?

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Да конечно. Но если указана каноническая страница, то дублей не будет в индексе. Поэтому я и написал о проверке через Яндекс. Точнее всего смотреть глазами поисковика. 
Вообще проблема с дублями еще решается через robots.txt или через переписывание метатегов. Зависит от того какова природа дубля. 

Ответить
Развернуть ветку
2 комментария
Paul Glavnyy

Статья по типу "Учёные выяснили критическую причину смерти: Люди которые дышат - 100% умрут"

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Почти, но не умрут, а останутся без топа. И не все, а только те которые с дублями)

Ответить
Развернуть ветку
Раффи

И мне была полезна!

Ответить
Развернуть ветку
Tema Borisenko

Такая маленькая статейка чтобы ненароком себя прорекламировать. Молодец!

Ответить
Развернуть ветку
Чайка О.

Автор считает, что статья поможет владельцам сайтов решить проблему дублей. Надеюсь, что так и будет.
Однако прошу автора учиться писать, чтобы и самому потом не было мучительно больно.

Нарушение логики:
1.
"Очень грубая ошибка – главная страница имеет сразу 3 копии."
"В итоге сайт находится вне топ-10"
"А вот результат проверки на дублирующие страницы по этому же запросу топового сайта. Здесь дублей нет."

На самом деле такая жёсткая связь?! Или вы хотите сказать что-то другое? 

2. 
"Тогда я проверяю сайт на самую распространенную и досадную ошибку – дублирование страниц."
"И так надо проверить все основные запросы на предмет дублирования." 
Это ведь разные темы, нет?

В первом случае речь о полных дублях страниц. Во втором - о релевантности страниц одному запросу.
Ещё один сайт из статьи имеет не полные дубли страниц, а дубли title. Возможно, с контентом тоже не всё гладко и много совпадений, но это уже следующая проблема.

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Есть дубли полные и неполные. Когда совпадет тайтл и/или часть контента - это неполный дубль.  Выше я писал с примерами от qlean.ru. Так что логика прямая.

Ответить
Развернуть ветку
4 комментария
STB-GROUP

Просьба автора просветить на счет дублей страниц при пагинации каталога. Критично? Как устранить?

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Да критично. Особенно если учесть, что раздел каталога обычно оптимизирован под важные средне- и высокочастотные запросы.
 Самый простой (но не лучший) способ закрыть в robots.txt все кроме основной. Например вот так:
 Disallow: /page/* или Disallow: /*/?page= (как у вас это реализовано я не знаю)
 Правильнее прописать rel=canonical для всех дублирующихся страниц с указанием основной. Этот вариант лучше. 
 Самый крутой вариант это вообще отсутствие пагинации, как на vc например.
Тогда все записи на одной странице просто подгружаются бесконечно. Это делают при помощи яваскрипт фреймворков. Тогда и поведенческие сохраняются. Это конечно идеал, но надо весь сайт переделывать, что недешево. 

Ответить
Развернуть ветку
23 комментария
Наталья Пелех

Я чайник. Но могу сказать, что недавно нужно было найти битые ссылки (почему-то редиректы слетели пока была в отпуске и не следила за сайтом). Без особого труда бесплатно нашла сервис, который показал и битые ссылки, и функция дубликат там есть. Реклама себя, рассчитанная на идиотов. Уж зеркало сайта, чтобы не было дубликат главной страницы, все настраивают

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Чем больше человек не разбирается в теме, тем категоричнее его вывод) Чекеры могут показать полные дубли, но частичные только руками надо искать. Как это сделать и описано в моей статье)

Ответить
Развернуть ветку
Илья Константинович

Сейчас все крутят ПФ и глубоко клали на оптимизацию и прочее. Все проще чем когда либо. Делается 10 сайтов, у всех начинают крутить ПФ, через месяц 5 сайтов в топ 5, остальные забанены или в топ 10-15. Еще через пару месяцев их банят, но на подходе уже новая пачка сайтов. На всё остальное сейчас все забили 

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Черное и серое SEO было есть и будет. Раньше спамили ключевиками, потом на ссылках дорвеи делали. Сейчас ПФ крутят. Но это никак не отменяет белого SEO.

Ответить
Развернуть ветку
Креативный маркетолог

Крутит поведенческие актуально для фирм однодневок.
Для серьезных сайтов - это не вариант.
Представьте, например, сайт компании Ашманов или Пиксель, которые каждый месяц открывают новый сайт.... Бред.

Ответить
Развернуть ветку
1 комментарий
Grigoriy Ryabtsev

Спасибо, действительно очень частая ошибка. 

Ответить
Развернуть ветку
Gleb Orlov
Школьники - SEOшники минусуют и молчат) Теперь ведь любой может увидеть их косяки)

К сожалению мы живем в такое время, когда недоученные "seo специалисты" и шарлатаны процветают... и выход один смотрите на их сайт, если он сделан некачественно, делайте соответствующий вывод, прежде чем доверять им свой. 

Любые отмазки типа: "за две минуты на коленке" не рассматриваются. 
И они очень не любят, когда намекаешь им просто на низкий уровень компетентности.

Но самое плохое, с чем столкнулся я, это то, что эти лентяи перерастают в мошенников, в последнем случае фрилансер клиенту установил код, позволяющий торговать ссылками с его сайта.

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Согласен. Проблема серьезная. SEO очень запутанная тема поэтому выдающих себя за SEOшников очень много.
Вот я и задумал цикл статей о том как без специальных знаний и программ оценить уровень своего сайта. 

Ответить
Развернуть ветку
Денис Демидов

Все это чушняк полный сео это эксперимент у каждого он свой , клиенты экспериментируют бюджетами , хотят за бесплатно нанять хорошего специалиста который будет круглосуточно сидеть и думать над их бизнесом . Это очень хорошо что есть хорошие и плохие специалисты есть с чем сравнивать клиенту

Ответить
Развернуть ветку
Ware Wow

Это не дублирование страниц, дубли это дубли имхо.
В ваших примерах речь не про дубли.
 
И вообще не понятно о чем разговор... да, влажная уборка и генеральная это разные ключи. Под них разные страницы. Вы ищите по сайту страницу со фразой уборка.... блин, естественно вам будут показаны все страницы по уборке. А вы, что ожидали увидеть?

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Вот, например, такой тайтл сразу у трех страниц сайта (у главной тоже почти такой же)

"Уборка квартир в Москве: доступные цены на уборку частных квартир — заказать уборку квартиры в клининговой компании Qlean "
https://qlean.ru/vidy-uborok/generalnaya-uborka-kvartiry

https://qlean.ru/tseny-na-uborku-kvartir

https://qlean.ru/vidy-uborok/ezhednevnaya-uborka-kvartiry

 По содержанию они отличаются не принципиально. Многие блоки повторяют друг-друга слово в слово. Это не полные дубли. Но это все таки дубли. Надо уникализировать тайтлы. 

Ответить
Развернуть ветку
Sergio Mekeda
Автор

По влажной уборке и генеральной уборке как раз все норм. Я привел его как правильный пример. Это другие запросы. 

Ответить
Развернуть ветку
Иван Глухов

Это не дубли для Яндекса, и это главное. Лечится это дерьмо ноуиндекс+каноникал ( в яндексе) , если коненчо это надо лечить.

А в первом примере - нужно убрать запретить ? В роботсе, и сделать зеркало c www, но для начала я бы ещё глянул как это всё ранжируется.

Ответить
Развернуть ветку
Sergio Molotkoni
Ответить
Развернуть ветку
Sergio Mekeda
Автор

По такому запросу думаю даже на 50 позиции идеальный сайт будет) Конкуренция. 

Ответить
Развернуть ветку
Sergio Mekeda
Автор

Дубль это просто самая распространенная и досадная проблема. Одна из. Я проверяю сайт по более чем 50 пунктам. И это только самое важное.

Ответить
Развернуть ветку
Андрей Колесов

при парсинге сайта нормальным софтом эта ошибка всплывает - по совпадению title. description...

Ответить
Развернуть ветку
128 комментариев
Раскрывать всегда