Утонул быстрее чем Титаник или Мартовский Update Google
Вдохновившись успешным примером моего товарища 3 месяца с февраля 2024 я работал над сайтом с онлайн-калькуляторами. Это было скорее с целью разобраться в SEO, чем заработать денег, но и с монетизацией тоже хотелось попробовать.
Суть не новой идеи - берешь популярные запросы вроде "Сколько лет если родился в XXXX году" - делаешь калькулятор. Дальше programmatic SEO: на каждый год генерируешь по странице, в которой контент будет +/- похожий, с подстановкой переменных в шаблоны. Или целыми кусками меняться в зависимости от переменных. За счет этого покрываешь множество низкочастотных ключевиков.
Первый месяц я ждал когда же наконец Google меня проиндексирует и радовался первым единицам и десяткам посетителем, обновляя счетчик метрики по нескольку раз в день. По неопытности я вкинул сразу 1000 ссылок в sitemap, а предательская машина индексировала по 100 за несколько дней.
На второй месяц сайт потихоньку стал заходить в индекс и мы доползли до 100 посетителей в сутки. Я работал над контентом. Контент не сгенерирированныый AI подчистую, а обработанный мною текст. AI я применил для переводов на разные языки, помимо английского.
К концу третьего месяца Google стал индексировать страницы не с лимитом в 100 страниц за несколько дней, а вкидывать по нескольку тысяч. Трафик постепенно достиг 400 посетителей в день. На пике 460. Я радовался, идея работает. Поставил Яндекс.РСЯ на пробу и заработал первые 100 руб.
И вот наступило 5 мая. За день до этого, окрыленный цифрой 460 посетителей в сутки и географией аудитории я отправил сайт на ревью в Google AdSense. А 5 числа трафик исчез в один момент и практически полностью.
Первым предположением было, что ассесор Google и ревьювер AdSense - это одно лицо, и видимо он наложил какую-то ручную санкцию за что-то. Но Google словно издеваясь показывает:
Сегодня изучая довольно скудный объем информации о том, как вывести сайт из под фильтров наткнулся на описание March Core Update от Google 2024. Самое интересное - дата внизу. Изменения вступают в силу с 5 мая, что совпало с датой потери трафика. Несомненно причина в обновлении.
Мой сайт в теории подходит под "Недопустимое масштабирование контента". Никаких злоупотреблений, массовой закупки ссылок у меня не было. Самое интересное сайты конкурентов, у которых я взял идею калькуляторов с таким же программатиком - все стабильно, в выдаче. В итоге черт его знает в чем точно причина, - Google не прислал ни предупреждений, ничего...
А дальше у меня не хватает SEOпыта... Если для выхода из под фильтров требуется полностью убрать весь програматик, - то теряется весь смысл сайта. Если что-то другое триггернуло фильтр, то на проверку каждой гипотезы уйдут недели или месяцы... А все эти гипотезы без фактов - гадание на кофейной гуще. Пишут, что из под фильтров гугла выходят месяцами, 6 месяцев, 1 год...
Короче похоже это конец эксперимента. Прошу совета у опытных: как вывести сайт из под фильтров?
Programmatic SEO было ошибкой. Каждый калькулятор должен иметь одну страницу удовлетворять запросы функционально. Индексация вашего сайта это невероятно дорогое удовольствие в силу необходимости проверять каждую страницу на достоверность и совместимость с консенсусом базы знаний Google, поэтому + вероятно за счет Ai контента (пусть и гуманизированного), ваш сайт числится, как спам. Ai контент обнаруживается за счет статистических "подписей", которые присущи всем LLM.
Вы можете сказать, что есть похожие сайты с похожей структурой, и это правда. Но если вы проанализируете самые топовые по трафику страниццы таких сайтов, вы увидите, что они именно функциональные, которые решают сложные функциональные задачи по расчету времени и дат с привязкой к локации и часового пояса пользователя, поэтому эти сайты имеют репутацию и авторитетность ранжироваться по запросам с меньшими объемами, создавая отдельные страницы под отдельные запросы.
Чем меньше страниц способны охватить наибольшее количество пользователей и запросов, тем лучше. Читайте информацию о "cost of information retrieval".
Иными словами, ваш сайт с точки зрения Google не эффективный, также он триггерит алгоритмы обнаружения спама, особенно после core update 5 мая 2024.
Спасибо за ответ.
Насчет ошибки программатика: ну в нем собственно и суть.. Люди ищут запрос + их конкретная ситуация. Например "Сколько лет если родился в 1997?", или "30 дней после сегодня". Страница с таким заголовком и ответом именно на этот вопрос судя по практике конкурентов всегда будет более релевантна чем дженерик-страница калькулятора вроде "калькулятор возраста"... Ведь люди просто не ищут так. В этом собственно суть идеи, и полностью от неё отказываться ну я не знаю как. Надо поэксперементировать.
Насчет AI контента - я сомневаюсь что именно в этом причина. Потому что в тексте на русском и английском от сгенерированного контента после редактуры мало что остается. А вот на другие языки я переводил с помощью AI, и тут конечно я не могу проверить качество.
Я думаю триггернул scaled content. Особенно, учитывая, что я допустил ошибку: https://vc.ru/1166494?comment=7502465
А видимость какая по инфозапросам?
По бренду/домену сайт находится?
В индексе страницы как и было до падения?
Конкуренты по аналогичным запросам тоже просели?
Всего примерно 30 + гипотез, в большинстве их можно проверить за месяц. Но чтобы наверняка нужно ставить эксперименты и замеры. Это да время.
Ждал пока SearchConsole обновится очередной раз, на случай если все же пришлет какое-то уведомление. Но ничего не пришло.
Видимость? До 5 числа было 80 тысяч показов в день, сейчас - до 500 показов. Если говорить о позициях, то страницы, которые были на 6й позиции - не присутствуют сейчас в топ-50. Страничка, которая была на 3й позиции - перешла на 18ю...
В индексе страницы как и было до падения?
Пока да и продолжают добавляться, однако я занес большой пакет ошибочных в роботс и жду когда удалятся. Вот тут написал:
https://vc.ru/seo/1166494-utonul-bystree-chem-titanik-ili-martovskii-update-google?comment=7502465
По бренду/домену сайт находится?
Да
Конкуренты по аналогичным запросам тоже просели?
Не наблюдаю просадки
Ваше предположение вероятно верно. У зарубежных коллег в аналогичных темах тоже срезало трафика (кто-то из SEO-блоггеров публиковал кейсы в телеграме)
У тебя 200к страниц? Откуда столько, даже на вики столько нет. Может по этому и заспамили?
Их должно быть много, ведь под каждую вариацию запроса по странице. Но цифра 200 за 2 апдейта search console действительно аномалия. Я не заблокировал ненужные страницы в robots: https://vc.ru/seo/1166494-utonul-bystree-chem-titanik-ili-martovskii-update-google?comment=7502465
Надо было отреагировать на странность быстрее, может быть и без фильтра обошлось
такое в закладки, так просмотрел есть некие идеи
Странно, что гугл под такие простые запросы своими силами ответ не даёт
У меня был ровно тот же вопрос. Он дает на многие вопросы ответ. Но почему-то люди все равно стабильно переходят на сайты.
Разбираясь откуда взялись 200К страниц, я обнаружил несколько ошибок. Некоторые страницы дают ссылки на "соседние"... Например там где даты, есть ссылки на аналогичные страницы годом меньше, годом больше. А еще есть месяца, и даже некоторые дни попали... Я хотел проиндексировать фиксированный диапазон годов 1900 - 2024. Однако я не заблокировал индексацию остальных страниц в robots.txt и Goolge ушел индесировать средневековье... отсюда безумное количество страниц в индексе.
В сочетании с обновлением 5 мая, я думаю очевидно триггернуло scaled content.
Теперь вопрос что в этой ситуации делать?
1. Пока что я заблокировал очевидно не нужные мне страницы в robots.txt, посмотрим как быстро они вылетят из индекса и облегчит ли это как-то участь сайта.
2. Удалять полностью все страницы, кроме основной калькулятора - тогда теряется суть попытки занять низкочастотники... По основным запросам пробиться сквозь сотни подобных калькуляторов невозможно.
3. Можно попробовать "начать все с начала". Заблокировать все страницы, кроме главных страниц калькуляторов, дождаться пока они вылетят из индекса, посмотреть снимется ли фильтр, а потом аккуратно возвращать частями сгенерированных под низкочастотники страниц, параллельно делая их контент более уникальным.