1. Провели технический анализ сайта. На падение позиций могла повлиять индексация сайта. Например, основная страница, по которой ранжируются запросы, могла выпасть, а на замену прийти менее подходящая без оптимизации. Это могло повлиять как на позиции, так и на трафик. Проверили технические параметры, все было в норме. Было несколько не проиндексированных новых страниц со статьями. Но это явно была не та причина падения позиций.
А я и тут спрошу: откуда гипотеза про YMYL фильтр, как обосновывали? Вернее, так: почему меры принимали как от ручника, а не алгоритмика?
Просто накапливается некоторая база по обвалам сайтов в этой категории, и всё больше данных в пользу того, что фильтры прилетают не за отсутствие профиля автора, а чисто по текстовым метрикам.
Для примера: сайт страховой компании, обвал. Анализ показывает, что просело всё, где активно торчал ключ "симптомы". Анализ конкретных страничек показывает, что там реально о медицине - фиг да маленько, и даже по ключам очень кисло. Правки текста - и сайт поехал вверх, прочее не правилось.
Таких корреляций не просматривалось? Просто даже на добавлении блока Q&A можно поехать вверх - если это вносит серьёзные изменения в словарный состав документа.
Если вы про клиента, то никак не обосновывали, т.к. клиенту надо позиции и трафик. А по факту деньги от заказов.
Почему больше делается акцент на EAT, а не на тексты. Мы полезли в текстовую оптимизацию. Некоторые переписали, где-то обновили теги, где-то добавили текст. Результат был нулевой практически. Добавили грубо говоря коммерческие факторы на основании конкурентов и позиции выросли. Плюс майский апдейт.
В кейсе по тому и указывал текстовую оптимизацию, возможно она отыграла позже, возможно совокупность факторов.
Не, тут я не про клиента - именно как стратегию определяли. Для меня этот момент мутный и интересно понять общую логику и посмотреть на процессы.
Пока ясно, что фильтрация в этом плане будет только усиливаться, и надо понять, как её выявлять и что с ней делать. И если всё сводится к алгоритмической фильтрации - то надо оценивать контент.
И вот тут начинаются проблемы.
Если отвлечься от заголовка про вывод из-под фильтра, получается типичный кейс: сайт, не соответствующий рекомендациям Гугла, комплексом работ был приведён в соответствие рекомендациям.
Выводы:
- не пренебрегайте рекомендациями ПС;
- используйте комплекс SEO.
X)
Мне кажется, или это уже фактически базовый отраслевой стандарт?
Тут главное не перепутать что должно соответствовать стандартам, а что не должно. Потому что одним "соответствием" тоже не выведешь.