Если вы оказываете медицинские услуги (стоматология, поликлиника, пластическая хирургия), добавьте на сайт дипломы или сертификаты врачей, отзывы о них. Это внушит доверие к сайту не только у пользователей, но и у поисковых роботов. Если вы оказываете иные услуги (инженерные работы, юридические, продвижение), отзывы и подтверждение вашей квалификации будут также не лишними.
Малые причины. В качестве основных я бы выделил:
а) Текстовая нерелевантность
б) Ненабранные метрики (возраст, трафик, ПФ, видимость по ключам и т.п.).
Всё это по сути фильтры - не наказание, а непройденные пороги соответствия.
в) Хостовые метрики на стыке с коммерческими. Судя по всему, Яндекс сейчас просто не даст высоких позиций по группам запросов, если хост по его данным не соответствует заявленному бизнесу. И дело тут уже не в представленном на сайте ассортименте товаров и услуг. (Кстати, привет от нового фильтра "Мимикрия" как одного из проявлений этого момента).
Каннибализация? - Тут отмечено больше про интент. Неужели вы думаете, что наличие слов "купить" и "цена" где угодно способно сбить ПС с толку? "Цена" - это либо про прайс-лист, либо про тонну товарных карточек в категории, не про сеошную портянку или статью. То, что заявлено в ключе, должно быть раскрыто в контенте страницы. Каннибализация же чаще - это про нечеткие дубли или про ложные "хвосты" основного ключа, которые ПС просто отбрасывает как неважные.
Ну, и советы какие-то диковатые. Куча уже кейсов от любителей воевать с "зомби-страницами". Снесли тонну страниц без трафа - получили просадку вплоть до вылета по основной категории.
Просто потому, что веб-граф комплексно оценивается, а не по каким-то отдельным метрикам его узлов.
от любителей воевать с "зомби-страницами"...
Не первый раз встречаю советы "нет трафика - удаляй". И в этом посте индексация и трафик сразу в гору пошли - как это вообще связано? Не понимаю. И какой в этом смысл, например, для страниц блога. Принципиально новый текст не родится и топа, чтобы получать трафик, на всех не хватит.
1. Уважаемый автор... У вас со статьи про "Аудит сайта" ссылка ведет на страницу "Аудит рекламных компаний" - это вообще очень сильно заставляет усомниться в компетентности (ну с точки зрения логики и подкованных в теме людей).
2. Открытие страниц фильтра - спорное решение, которое может привести как к положительным, так и (в большинстве случае, на самом деле) к отрицательным. Причина этому в том, что открывая фильтры для индексации вы создаете генереж кучи страниц, которые потом могут вылетать из индекса как малополезный контент (и если таких страниц будет много - привет фильтр). Гугл вообще такие страницы редко индексирует и держит их в категории "Обнаружено но не проиндексировано". Также следует учесть что положительный эффект может (! акцент на слове может) сработать в Москве, где куча трафика (большая часть из которого боты - ну так, по секрету), а в регионах это не принесет вообще ничего, кроме того, что я описал выше.
3. Удаление Thin-content может принести как пользу, так и беду. Как писал @Виктор Петров - вы можете просто удалить страницы, которые раскрывают ширину семантики, что достаточно важно для продвижения. И, зачастую, если у вас недостаточный охват семантики, то вы не сможете занимать позиции по ВЧ запросам, под которые к примеру оптимизированы страницы каталога. В данном случае стоит проводить глубокий анализ страниц, и возможно, правильнее будет доработать их, а не удалить. Кстати, у вас на скрине куча дублей с GET параметрами utm_referrer и reg, то есть по сути это не "тонкий контент" а тупо некачественная настройка файла robots.txt - директива Clean-param вам в помощь (Google вообще подобную хрень не берет индекс). И да - ваш сайт trasko.ru :) проверяйте все скрины перед публикацией ;)
4. "Если микроразметка заполнена семантически правильно, в выдаче пользователь увидит расширенный сниппет с ценой, артикулом, адресом магазина — в зависимости от того, что было выделено тегами." - Не "увидит", а "может увидеть", поскольку решение о том, как, и по какому запросу будет выглядеть сниппет, будет принимать поисковая система. Вы лишь даете ей сигнал о том, что вы хотите показать больше. Если не верите - просто проанализируйте выдачу: я не раз наблюдал когда 10 из 10 сайтов в топе имеют микроразметку, а расширенный сниппет показывается у одного, максимум двух...
В целом, вы написали правильные моменты. Проблема в том, что у вас приведены некорректные примеры для подтверждения. Да и если говорить про аудит "что не так - что надо сделать", то тут индивидуально надо рассматривать каждый сайт, а если писать про общие факторы, то нужно брать те, которые присутствуют на большОй выборке сайтов и исправляются примерно одинаковыми решениями, а не как в случае с фильтром и удалением лишних страниц - что на одном сайте это может привести к подъему, а на другом - к провалу. В принципе это же касается и эмодзи - не на всех сайтах они будут показываться корректно.
За чек-лист спасибо, но почему Netpeak? Есть же бесплатный SiteAnalyzer, который не хуже все это сделает.
Про микроразметку - да, чё-то тут совсем не это. Мало того, что JSON-LD вывели как тип микроразметки, а не её синтаксис, так ещё и опять всё свели к сниппетам.
Выглядит так, что расширенный сниппет обеспечивается не наличием микроразметки - а тому, как ПС понимает сайт. Расширенный сниппет со всеми прибамбасами ПС может выстроить самостоятельно, без микроразметки вообще - что тот же Гугл демонстрирует постоянно. Я бы сказал, что (с учетом ряда нюансов) расширенный сниппет - это такой "значок качества" от ПС для проверенного-доверенного, понятного-приятного сайта, куда ПС ещё и от себя чего-то полезного добавит, если сочтёт важным.
Я вот тоже бы не рекомендовал удалять страницы, тем более старые. Их удобно проработать, часть информации переписать и оставить. Как минимум для PR. Если на сайте 100500 страниц и вы почистили 5-10 тыщ мусора, то может и есть смысл. А вот если на сайте 500 страниц и удалить 100 - это уже проблема. На месте Яндекса я бы такой сайт понизил в выдаче. А вот отредактировать - это работа в совсем другом направлении, в правильном. Википедия примером может стать.