Критическая ошибка, которая есть практически на каждом сайте
Бывает, смотришь на сайт и вроде все прекрасно: базовая оптимизация проведена, метатеги прописаны, сайт удобный и адаптивный. Даже микроразметку сделали и УТП составили. Но не лезет он в топ по нужным запросам, как его не толкают. Крутится на втором-третьем десятке как заколдованный.
Тогда я проверяю сайт на самую распространенную и досадную ошибку – дублирование страниц. Эта проблема есть практически у всех проверяемых мной сайтов. Ее нельзя проверить автоматическими онлайн-чекерами – они не анализируют структуру сайта, поэтому эта ошибка не попадает в поле зрения новичков.
Как проверить вручную на дублирование
Очень просто. Выбираете несколько самых важных для вас запросов и вводите их в поисковой строке в таком виде: "ключевой запрос site:moisait.ru".
Вот как выглядят дублирующиеся страницы по запросу "Уборка квартир в Москве" у сайта aclean.ru
Очень грубая ошибка – главная страница имеет сразу 3 копии.
https://www.aclean.ru
https://aclean.ru
https://aclean.ru/?present=Y
Под этот же запрос оптимизирована еще и страница "О компании".
В итоге сайт находится вне топ-10
Такая же картина у сайта qlean.ru
В итоге позиции тоже вне топ-10.
А вот результат проверки на дублирующие страницы по этому же запросу топового сайта. Здесь дублей нет.
"Влажная уборка" и "генеральная уборка" хоть и похожи, но это явно другие запросы, по которым человек ищет уже конкретную услугу, а не общую фразу.
И так надо проверить все основные запросы на предмет дублирования. Есть программы "пауки", которые парсят весь сайт и дают возможность проанализировать сразу все дубли сайта.
Почему эта ошибка настолько распространена
Даже если изначально все на сайте было сделано хорошо, в процессе жизнедеятельности на нем создаются новые страницы. За семантической структурой никто не следит, и дублируются уже не просто страницы, а целые разделы.
Диагностику сайта почему-то редко проводят, хотя это очень важный этап в продвижении. Недорогая диагностика часто может выявить такие проблемы, устранение которых окупает ее стоимость стократно.
Мы регулярно проводим диагностику авто, организма, газового котла... А вот диагностику сайта почему-то не принято делать.
Поиск дублей это всего лишь один из пунктов проверки сайта на критические ошибки, которые я провожу. На самом деле есть и другие не менее важные проблемы, сильно ухудшающие показатели вашего сайта. Но об этом в следующих статьях.
Школьники - SEOшники минусуют и молчат) Теперь ведь любой может увидеть их косяки)
Не думаю, просто это настолько очевидная и детская ошибка, что складывается твердое ощущение, что статья написали ради потенциальных заказов, пиара и собственно самой ссылки.
Конечно, любой труд должен давать плоды, но так откровенно паразитировать на прописных истинах - КАК ТО НЕ ОЧЕНЬ ) Вот если бы вы - Sergio, провели исследование, написали бы подробный мануал по переезду, например, на https и сохранению трафика в google, а там сейчас все очень поломно, на объемах за 100к+ страниц. Было бы интересно, а так - детский сад какой-то. Не исключаю, что может кому то и пригодится статья, но странно, что вы как seo-специалист, а вы ведь пишите об этом. Не оформили заголовок под поисковик, что-то типа Дубли страниц - критическая ошибка всех рукожопов!
Сергей, не переживайте. Здесь есть ребята, которые видят, что вы круче их, но они не могут писать статьи. Их задача - поднимать свою самооценку за ваш счет - критикуя и молча минусуя. Некоторые даже без ошибок комментарий написать не могут, но гонору у них, как у экспертов (хотя, сеошник, априори должен хорошо знать русский язык, ведь он работает с семантикой).
Минусуют, потому что вы выдаете желаемое за действительное.
Сайт веб студии, оооочень долгое время занимавшей топ-10
https://yandex.ru/search/?text=%D0%BF%D1%80%D0%BE%D0%B4%D0%B2%D0%B8%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5%20%D1%81%D0%B0%D0%B9%D1%82%D0%B0%20site%3Ahttps%3A%2F%2Fqweo.ru%2F&lr=213
Убедится в этом можно через мегаиндекс
https://ru.megaindex.com/analyzeword#word=%25D0%259F%25D1%2580%25D0%25BE%25D0%25B4%25D0%25B2%25D0%25B8%25D0%25B6%25D0%25B5%25D0%25BD%25D0%25B8%25D0%25B5%2520%25D1%2581%25D0%25B0%25D0%25B9%25D1%2582%25D0%25B0®ion_id=4&se=1®ion=&dates=now%3B02%2F2020%3B01%2F2020%3B12%2F2019%3B11%2F2019%3B10%2F2019%3B09%2F2019%3B08%2F2019%3B07%2F2019%3B06%2F2019%3B05%2F2019&pg=0&ser_id=1&type=month
Дубль у них был все это время, что не особо мешало нормально ранжироваться.
Если ошибка десятки лет есть у всех, то она по определению не критическая и не может быть помехой в seo (раз она у других есть)
если ваш сайт идеальный, для чего тогда эта страница https://digitalweb.ru/comments/
?!
и страница 404 ошибки, никак не сообщает пользователю, что он не туда попал, в связи с чем такое решение...
уверен, если порыться то можно найти еще
Комментарий недоступен
Одни и те же комментарии под каждой статьей в разделе SEO: это элементарно, зачем вы об этом написали, вы бездарность, ваша студия говно...Как под копирку. Не надоело?
Дарья, хорошо подметили!
Как правило, те, кто пишет такие комментарии - не являются SEO-специалистами. Точнее, они себя таковыми сами считают и повышают тем самым свою самооценку.
В SEO как нигде в другой сфере сложно оценить результат и квалификацию специалиста. Поэтому процент недоспециалистов здесь самый высокий. Естественно любая попытка пролить свет вызывает такую реакцию.
Я еще отчеты SEOшников коллекционирую. Вот самый эпический случай. Нулевой) https://vc.ru/seo/59385-chto-na-samom-dele-pishut-v-seo-otchetah-i-pochemu-eto-stoit-50-000-rubley
Как может надоесть кидаться какашками в друг друга? Зачем по вашему комментарии? Для критики, говна и диалога!!! С Сергеем согласен, в комментах в основном пишут не seo-специалисты, а рукожопы. Может прозвучит немного обидно, но уже лет 5-7 не понимаю, как можно называть себя сеошнегом и заниматься клиентским SEO. Умеешь - делаешь свое, сделаль - запускаешь новое. Не умеешь - ищешь клиентов, пишешь обучающие материалы. Это ж не творчество, это кропотливый дроч. Ну будет у тебя 2-5-10 клиентов и? Больше ляма врятли заработаешь. Так зачем работать на кого-то, если можно на себя.
"Но об этом в следующих статьях."
Может, не надо?
Надо Ольга, надо! Буду сайты спасать до последнего домена!
Вторую статью читаю по сео на вц.
И мне нравится что написано понятным языком.
То же самое посчитаешь на ресурсе из топа, и нихера не поймёшь.
Так что даёшь больше основ простым языком!
Да именно такой и была цель! Прочитал - применил. А то пока топовые SEOшники рассуждают о кораблях бороздящих космические просторы, большинство сайтов страдают от детских ошибок.
Да жесть, иногда посмотришь выдачу по сайту, диву даёшься - ни оптимизации, ни метатегов, сплошной винегрет из обрывков смыслов..
Ну это последствие того, что на входе аудит проводят будущие подрядчики, на выходе тоже они. Т.е. по сути диагностики сайта нет. И что там внутри на самом деле видит только Яндекс)
Кстати, у одного из сайтов:
Олдскул seo
Охренеть! На дворе 2020 год. Гугл 11 лет как не смотрит на keywords))
Статья ради статьи.
а ваш сайт само совершенство, и претендует на звание мега - идеального?
Похоже вас статья тоже обидела? Не хотел. Честно. Насчет моего сайта - нет идеальных сайтов. Задача моего - конверсия трафика с контента. И с этой задачей он справляется.
Так есть же тег meta[rel="canonical"]. И если все "дубликаты" имеют одинаковый "canonical" URL то и восприниматься они должны как одна и та же страница Но под разными URL. То есть эта проблема решается тривиально, разве нет?
Да конечно. Но если указана каноническая страница, то дублей не будет в индексе. Поэтому я и написал о проверке через Яндекс. Точнее всего смотреть глазами поисковика.
Вообще проблема с дублями еще решается через robots.txt или через переписывание метатегов. Зависит от того какова природа дубля.
Статья по типу "Учёные выяснили критическую причину смерти: Люди которые дышат - 100% умрут"
Почти, но не умрут, а останутся без топа. И не все, а только те которые с дублями)
И мне была полезна!
Такая маленькая статейка чтобы ненароком себя прорекламировать. Молодец!
Автор считает, что статья поможет владельцам сайтов решить проблему дублей. Надеюсь, что так и будет.
Однако прошу автора учиться писать, чтобы и самому потом не было мучительно больно.
Нарушение логики:
1.
"Очень грубая ошибка – главная страница имеет сразу 3 копии."
"В итоге сайт находится вне топ-10"
"А вот результат проверки на дублирующие страницы по этому же запросу топового сайта. Здесь дублей нет."
На самом деле такая жёсткая связь?! Или вы хотите сказать что-то другое?
2.
"Тогда я проверяю сайт на самую распространенную и досадную ошибку – дублирование страниц."
"И так надо проверить все основные запросы на предмет дублирования."
Это ведь разные темы, нет?
В первом случае речь о полных дублях страниц. Во втором - о релевантности страниц одному запросу.
Ещё один сайт из статьи имеет не полные дубли страниц, а дубли title. Возможно, с контентом тоже не всё гладко и много совпадений, но это уже следующая проблема.
Есть дубли полные и неполные. Когда совпадет тайтл и/или часть контента - это неполный дубль. Выше я писал с примерами от qlean.ru. Так что логика прямая.
Просьба автора просветить на счет дублей страниц при пагинации каталога. Критично? Как устранить?
Да критично. Особенно если учесть, что раздел каталога обычно оптимизирован под важные средне- и высокочастотные запросы.
Самый простой (но не лучший) способ закрыть в robots.txt все кроме основной. Например вот так:
Disallow: /page/* или Disallow: /*/?page= (как у вас это реализовано я не знаю)
Правильнее прописать rel=canonical для всех дублирующихся страниц с указанием основной. Этот вариант лучше.
Самый крутой вариант это вообще отсутствие пагинации, как на vc например.
Тогда все записи на одной странице просто подгружаются бесконечно. Это делают при помощи яваскрипт фреймворков. Тогда и поведенческие сохраняются. Это конечно идеал, но надо весь сайт переделывать, что недешево.
Я чайник. Но могу сказать, что недавно нужно было найти битые ссылки (почему-то редиректы слетели пока была в отпуске и не следила за сайтом). Без особого труда бесплатно нашла сервис, который показал и битые ссылки, и функция дубликат там есть. Реклама себя, рассчитанная на идиотов. Уж зеркало сайта, чтобы не было дубликат главной страницы, все настраивают
Чем больше человек не разбирается в теме, тем категоричнее его вывод) Чекеры могут показать полные дубли, но частичные только руками надо искать. Как это сделать и описано в моей статье)
Сейчас все крутят ПФ и глубоко клали на оптимизацию и прочее. Все проще чем когда либо. Делается 10 сайтов, у всех начинают крутить ПФ, через месяц 5 сайтов в топ 5, остальные забанены или в топ 10-15. Еще через пару месяцев их банят, но на подходе уже новая пачка сайтов. На всё остальное сейчас все забили
Черное и серое SEO было есть и будет. Раньше спамили ключевиками, потом на ссылках дорвеи делали. Сейчас ПФ крутят. Но это никак не отменяет белого SEO.
Крутит поведенческие актуально для фирм однодневок.
Для серьезных сайтов - это не вариант.
Представьте, например, сайт компании Ашманов или Пиксель, которые каждый месяц открывают новый сайт.... Бред.
Спасибо, действительно очень частая ошибка.
К сожалению мы живем в такое время, когда недоученные "seo специалисты" и шарлатаны процветают... и выход один смотрите на их сайт, если он сделан некачественно, делайте соответствующий вывод, прежде чем доверять им свой.
Любые отмазки типа: "за две минуты на коленке" не рассматриваются.
И они очень не любят, когда намекаешь им просто на низкий уровень компетентности.
Но самое плохое, с чем столкнулся я, это то, что эти лентяи перерастают в мошенников, в последнем случае фрилансер клиенту установил код, позволяющий торговать ссылками с его сайта.
Согласен. Проблема серьезная. SEO очень запутанная тема поэтому выдающих себя за SEOшников очень много.
Вот я и задумал цикл статей о том как без специальных знаний и программ оценить уровень своего сайта.
Все это чушняк полный сео это эксперимент у каждого он свой , клиенты экспериментируют бюджетами , хотят за бесплатно нанять хорошего специалиста который будет круглосуточно сидеть и думать над их бизнесом . Это очень хорошо что есть хорошие и плохие специалисты есть с чем сравнивать клиенту
Это не дублирование страниц, дубли это дубли имхо.
В ваших примерах речь не про дубли.
И вообще не понятно о чем разговор... да, влажная уборка и генеральная это разные ключи. Под них разные страницы. Вы ищите по сайту страницу со фразой уборка.... блин, естественно вам будут показаны все страницы по уборке. А вы, что ожидали увидеть?
Вот, например, такой тайтл сразу у трех страниц сайта (у главной тоже почти такой же)
"Уборка квартир в Москве: доступные цены на уборку частных квартир — заказать уборку квартиры в клининговой компании Qlean "
https://qlean.ru/vidy-uborok/generalnaya-uborka-kvartiry
https://qlean.ru/tseny-na-uborku-kvartir
https://qlean.ru/vidy-uborok/ezhednevnaya-uborka-kvartiry
По содержанию они отличаются не принципиально. Многие блоки повторяют друг-друга слово в слово. Это не полные дубли. Но это все таки дубли. Надо уникализировать тайтлы.
По влажной уборке и генеральной уборке как раз все норм. Я привел его как правильный пример. Это другие запросы.
Это не дубли для Яндекса, и это главное. Лечится это дерьмо ноуиндекс+каноникал ( в яндексе) , если коненчо это надо лечить.
А в первом примере - нужно убрать запретить ? В роботсе, и сделать зеркало c www, но для начала я бы ещё глянул как это всё ранжируется.
https://yandex.ru/search/?text=%D1%8E%D0%B2%D0%B5%D0%BB%D0%B8%D1%80%D0%BD%D1%8B%D0%B9%20%D0%B8%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1%82%20%D0%BC%D0%B0%D0%B3%D0%B0%D0%B7%D0%B8%D0%BD%20site%3Asilver-mania.ru&lr=215
у нас как бы все ок, но до топа пипец как далеко
По такому запросу думаю даже на 50 позиции идеальный сайт будет) Конкуренция.
Дубль это просто самая распространенная и досадная проблема. Одна из. Я проверяю сайт по более чем 50 пунктам. И это только самое важное.
при парсинге сайта нормальным софтом эта ошибка всплывает - по совпадению title. description...