Разрабатываем универсальные онлайн-калькуляторы: https://countlike.pro/ru
Их должно быть много, ведь под каждую вариацию запроса по странице. Но цифра 200 за 2 апдейта search console действительно аномалия. Я не заблокировал ненужные страницы в robots: https://vc.ru/seo/1166494-utonul-bystree-chem-titanik-ili-martovskii-update-google?comment=7502465
Надо было отреагировать на странность быстрее, может быть и без фильтра обошлось
У меня был ровно тот же вопрос. Он дает на многие вопросы ответ. Но почему-то люди все равно стабильно переходят на сайты.
Ждал пока SearchConsole обновится очередной раз, на случай если все же пришлет какое-то уведомление. Но ничего не пришло.
Видимость? До 5 числа было 80 тысяч показов в день, сейчас - до 500 показов. Если говорить о позициях, то страницы, которые были на 6й позиции - не присутствуют сейчас в топ-50. Страничка, которая была на 3й позиции - перешла на 18ю...
В индексе страницы как и было до падения?
Пока да и продолжают добавляться, однако я занес большой пакет ошибочных в роботс и жду когда удалятся. Вот тут написал:
https://vc.ru/seo/1166494-utonul-bystree-chem-titanik-ili-martovskii-update-google?comment=7502465
По бренду/домену сайт находится?
Да
Конкуренты по аналогичным запросам тоже просели?
Не наблюдаю просадки
Разбираясь откуда взялись 200К страниц, я обнаружил несколько ошибок. Некоторые страницы дают ссылки на "соседние"... Например там где даты, есть ссылки на аналогичные страницы годом меньше, годом больше. А еще есть месяца, и даже некоторые дни попали... Я хотел проиндексировать фиксированный диапазон годов 1900 - 2024. Однако я не заблокировал индексацию остальных страниц в robots.txt и Goolge ушел индесировать средневековье... отсюда безумное количество страниц в индексе.
В сочетании с обновлением 5 мая, я думаю очевидно триггернуло scaled content.
Теперь вопрос что в этой ситуации делать?
1. Пока что я заблокировал очевидно не нужные мне страницы в robots.txt, посмотрим как быстро они вылетят из индекса и облегчит ли это как-то участь сайта.
2. Удалять полностью все страницы, кроме основной калькулятора - тогда теряется суть попытки занять низкочастотники... По основным запросам пробиться сквозь сотни подобных калькуляторов невозможно.
3. Можно попробовать "начать все с начала". Заблокировать все страницы, кроме главных страниц калькуляторов, дождаться пока они вылетят из индекса, посмотреть снимется ли фильтр, а потом аккуратно возвращать частями сгенерированных под низкочастотники страниц, параллельно делая их контент более уникальным.
Спасибо за ответ.
Насчет ошибки программатика: ну в нем собственно и суть.. Люди ищут запрос + их конкретная ситуация. Например "Сколько лет если родился в 1997?", или "30 дней после сегодня". Страница с таким заголовком и ответом именно на этот вопрос судя по практике конкурентов всегда будет более релевантна чем дженерик-страница калькулятора вроде "калькулятор возраста"... Ведь люди просто не ищут так. В этом собственно суть идеи, и полностью от неё отказываться ну я не знаю как. Надо поэксперементировать.
Насчет AI контента - я сомневаюсь что именно в этом причина. Потому что в тексте на русском и английском от сгенерированного контента после редактуры мало что остается. А вот на другие языки я переводил с помощью AI, и тут конечно я не могу проверить качество.
Я думаю триггернул scaled content. Особенно, учитывая, что я допустил ошибку: https://vc.ru/1166494?comment=7502465