Топ-5 проблем, которые прямо сейчас могут мешать вашему сайту получать трафик

Как оказать своему сайту первую помощь, если позиции провисают.

1111

1. Уважаемый автор... У вас со статьи про "Аудит сайта" ссылка ведет на страницу "Аудит рекламных компаний" - это вообще очень сильно заставляет усомниться в компетентности (ну с точки зрения логики и подкованных в теме людей).
2. Открытие страниц фильтра - спорное решение, которое может привести как к положительным, так и (в большинстве случае, на самом деле) к отрицательным. Причина этому в том, что открывая фильтры для индексации вы создаете генереж кучи страниц, которые потом могут вылетать из индекса как малополезный контент (и если таких страниц будет много - привет фильтр). Гугл вообще такие страницы редко индексирует и держит их в категории "Обнаружено но не проиндексировано". Также следует учесть что положительный эффект может (! акцент на слове может) сработать в Москве, где куча трафика (большая часть из которого боты - ну так, по секрету), а в регионах это не принесет вообще ничего, кроме того, что я описал выше.
3. Удаление Thin-content может принести как пользу, так и беду. Как писал @Виктор Петров - вы можете просто удалить страницы, которые раскрывают ширину семантики, что достаточно важно для продвижения. И, зачастую, если у вас недостаточный охват семантики, то вы не сможете занимать позиции по ВЧ запросам, под которые к примеру оптимизированы страницы каталога. В данном случае стоит проводить глубокий анализ страниц, и возможно, правильнее будет доработать их, а не удалить. Кстати, у вас на скрине куча дублей с GET параметрами utm_referrer и reg, то есть по сути это не "тонкий контент" а тупо некачественная настройка файла robots.txt - директива Clean-param вам в помощь (Google вообще подобную хрень не берет индекс). И да - ваш сайт trasko.ru :) проверяйте все скрины перед публикацией ;)
4. "Если микроразметка заполнена семантически правильно, в выдаче пользователь увидит расширенный сниппет с ценой, артикулом, адресом магазина — в зависимости от того, что было выделено тегами." - Не "увидит", а "может увидеть", поскольку решение о том, как, и по какому запросу будет выглядеть сниппет, будет принимать поисковая система. Вы лишь даете ей сигнал о том, что вы хотите показать больше. Если не верите - просто проанализируйте выдачу: я не раз наблюдал когда 10 из 10 сайтов в топе имеют микроразметку, а расширенный сниппет показывается у одного, максимум двух...
В целом, вы написали правильные моменты. Проблема в том, что у вас приведены некорректные примеры для подтверждения. Да и если говорить про аудит "что не так - что надо сделать", то тут индивидуально надо рассматривать каждый сайт, а если писать про общие факторы, то нужно брать те, которые присутствуют на большОй выборке сайтов и исправляются примерно одинаковыми решениями, а не как в случае с фильтром и удалением лишних страниц - что на одном сайте это может привести к подъему, а на другом - к провалу. В принципе это же касается и эмодзи - не на всех сайтах они будут показываться корректно.
За чек-лист спасибо, но почему Netpeak? Есть же бесплатный SiteAnalyzer, который не хуже все это сделает.

2

Про микроразметку - да, чё-то тут совсем не это. Мало того, что JSON-LD вывели как тип микроразметки, а не её синтаксис, так ещё и опять всё свели к сниппетам.
Выглядит так, что расширенный сниппет обеспечивается не наличием микроразметки - а тому, как ПС понимает сайт. Расширенный сниппет со всеми прибамбасами ПС может выстроить самостоятельно, без микроразметки вообще - что тот же Гугл демонстрирует постоянно. Я бы сказал, что (с учетом ряда нюансов) расширенный сниппет - это такой "значок качества" от ПС для проверенного-доверенного, понятного-приятного сайта, куда ПС ещё и от себя чего-то полезного добавит, если сочтёт важным.

1