{"id":14293,"url":"\/distributions\/14293\/click?bit=1&hash=05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","title":"\u0421\u043e\u0437\u0434\u0430\u0442\u044c \u043d\u043e\u0432\u044b\u0439 \u0441\u0435\u0440\u0432\u0438\u0441 \u043d\u0435 \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0432 \u043d\u0438 \u043a\u043e\u043f\u0435\u0439\u043a\u0438","buttonText":"","imageUuid":""}

Утонул быстрее чем Титаник или Мартовский Update Google

Google Search Console

Вдохновившись успешным примером моего товарища 3 месяца с февраля 2024 я работал над сайтом с онлайн-калькуляторами. Это было скорее с целью разобраться в SEO, чем заработать денег, но и с монетизацией тоже хотелось попробовать.

Суть не новой идеи - берешь популярные запросы вроде "Сколько лет если родился в XXXX году" - делаешь калькулятор. Дальше programmatic SEO: на каждый год генерируешь по странице, в которой контент будет +/- похожий, с подстановкой переменных в шаблоны. Или целыми кусками меняться в зависимости от переменных. За счет этого покрываешь множество низкочастотных ключевиков.

Первый месяц я ждал когда же наконец Google меня проиндексирует и радовался первым единицам и десяткам посетителем, обновляя счетчик метрики по нескольку раз в день. По неопытности я вкинул сразу 1000 ссылок в sitemap, а предательская машина индексировала по 100 за несколько дней.

На второй месяц сайт потихоньку стал заходить в индекс и мы доползли до 100 посетителей в сутки. Я работал над контентом. Контент не сгенерирированныый AI подчистую, а обработанный мною текст. AI я применил для переводов на разные языки, помимо английского.

Для примера: один из самых успешных - калькулятор корейского возраста. Низкочастотные запрос на специфическую аудиторию приносил мне наибольшее количество заходов и сейчас продолжает тащить с Яндекса.

К концу третьего месяца Google стал индексировать страницы не с лимитом в 100 страниц за несколько дней, а вкидывать по нескольку тысяч. Трафик постепенно достиг 400 посетителей в день. На пике 460. Я радовался, идея работает. Поставил Яндекс.РСЯ на пробу и заработал первые 100 руб.

И вот наступило 5 мая. За день до этого, окрыленный цифрой 460 посетителей в сутки и географией аудитории я отправил сайт на ревью в Google AdSense. А 5 числа трафик исчез в один момент и практически полностью.

Интересно, что последние два обновления индекса сайта были аномально громадными. Первый скачок был на 70К с 30 до 100 страниц, а второй вкинул еще 90К страниц. Я не успел разобраться почему так много...

Первым предположением было, что ассесор Google и ревьювер AdSense - это одно лицо, и видимо он наложил какую-то ручную санкцию за что-то. Но Google словно издеваясь показывает:

Хотя у Google-то проблем и правда нет)

Сегодня изучая довольно скудный объем информации о том, как вывести сайт из под фильтров наткнулся на описание March Core Update от Google 2024. Самое интересное - дата внизу. Изменения вступают в силу с 5 мая, что совпало с датой потери трафика. Несомненно причина в обновлении.

Мой сайт в теории подходит под "Недопустимое масштабирование контента". Никаких злоупотреблений, массовой закупки ссылок у меня не было. Самое интересное сайты конкурентов, у которых я взял идею калькуляторов с таким же программатиком - все стабильно, в выдаче. В итоге черт его знает в чем точно причина, - Google не прислал ни предупреждений, ничего...

А дальше у меня не хватает SEOпыта... Если для выхода из под фильтров требуется полностью убрать весь програматик, - то теряется весь смысл сайта. Если что-то другое триггернуло фильтр, то на проверку каждой гипотезы уйдут недели или месяцы... А все эти гипотезы без фактов - гадание на кофейной гуще. Пишут, что из под фильтров гугла выходят месяцами, 6 месяцев, 1 год...

Короче похоже это конец эксперимента. Прошу совета у опытных: как вывести сайт из под фильтров?

0
11 комментариев
Написать комментарий...
Дамир Билалов

Programmatic SEO было ошибкой. Каждый калькулятор должен иметь одну страницу удовлетворять запросы функционально. Индексация вашего сайта это невероятно дорогое удовольствие в силу необходимости проверять каждую страницу на достоверность и совместимость с консенсусом базы знаний Google, поэтому + вероятно за счет Ai контента (пусть и гуманизированного), ваш сайт числится, как спам. Ai контент обнаруживается за счет статистических "подписей", которые присущи всем LLM.

Вы можете сказать, что есть похожие сайты с похожей структурой, и это правда. Но если вы проанализируете самые топовые по трафику страниццы таких сайтов, вы увидите, что они именно функциональные, которые решают сложные функциональные задачи по расчету времени и дат с привязкой к локации и часового пояса пользователя, поэтому эти сайты имеют репутацию и авторитетность ранжироваться по запросам с меньшими объемами, создавая отдельные страницы под отдельные запросы.

Чем меньше страниц способны охватить наибольшее количество пользователей и запросов, тем лучше. Читайте информацию о "cost of information retrieval".

Иными словами, ваш сайт с точки зрения Google не эффективный, также он триггерит алгоритмы обнаружения спама, особенно после core update 5 мая 2024.

Ответить
Развернуть ветку
CLP
Автор

Спасибо за ответ.

Насчет ошибки программатика: ну в нем собственно и суть.. Люди ищут запрос + их конкретная ситуация. Например "Сколько лет если родился в 1997?", или "30 дней после сегодня". Страница с таким заголовком и ответом именно на этот вопрос судя по практике конкурентов всегда будет более релевантна чем дженерик-страница калькулятора вроде "калькулятор возраста"... Ведь люди просто не ищут так. В этом собственно суть идеи, и полностью от неё отказываться ну я не знаю как. Надо поэксперементировать.

Насчет AI контента - я сомневаюсь что именно в этом причина. Потому что в тексте на русском и английском от сгенерированного контента после редактуры мало что остается. А вот на другие языки я переводил с помощью AI, и тут конечно я не могу проверить качество.

Я думаю триггернул scaled content. Особенно, учитывая, что я допустил ошибку: https://vc.ru/1166494?comment=7502465

Ответить
Развернуть ветку
Олег Черников // SEO

А видимость какая по инфозапросам?

По бренду/домену сайт находится?

В индексе страницы как и было до падения?

Конкуренты по аналогичным запросам тоже просели?

Всего примерно 30 + гипотез, в большинстве их можно проверить за месяц. Но чтобы наверняка нужно ставить эксперименты и замеры. Это да время.

Ответить
Развернуть ветку
CLP
Автор

Ждал пока SearchConsole обновится очередной раз, на случай если все же пришлет какое-то уведомление. Но ничего не пришло.

Видимость? До 5 числа было 80 тысяч показов в день, сейчас - до 500 показов. Если говорить о позициях, то страницы, которые были на 6й позиции - не присутствуют сейчас в топ-50. Страничка, которая была на 3й позиции - перешла на 18ю...

В индексе страницы как и было до падения?
Пока да и продолжают добавляться, однако я занес большой пакет ошибочных в роботс и жду когда удалятся. Вот тут написал:
https://vc.ru/seo/1166494-utonul-bystree-chem-titanik-ili-martovskii-update-google?comment=7502465

По бренду/домену сайт находится?
Да

Конкуренты по аналогичным запросам тоже просели?
Не наблюдаю просадки

Ответить
Развернуть ветку
Jackzavr

Ваше предположение вероятно верно. У зарубежных коллег в аналогичных темах тоже срезало трафика (кто-то из SEO-блоггеров публиковал кейсы в телеграме)

Ответить
Развернуть ветку
В А

У тебя 200к страниц? Откуда столько, даже на вики столько нет. Может по этому и заспамили?

Ответить
Развернуть ветку
CLP
Автор

Их должно быть много, ведь под каждую вариацию запроса по странице. Но цифра 200 за 2 апдейта search console действительно аномалия. Я не заблокировал ненужные страницы в robots: https://vc.ru/seo/1166494-utonul-bystree-chem-titanik-ili-martovskii-update-google?comment=7502465
Надо было отреагировать на странность быстрее, может быть и без фильтра обошлось

Ответить
Развернуть ветку
Юрий Валетов

такое в закладки, так просмотрел есть некие идеи

Ответить
Развернуть ветку
Michael

Странно, что гугл под такие простые запросы своими силами ответ не даёт

Ответить
Развернуть ветку
CLP
Автор

У меня был ровно тот же вопрос. Он дает на многие вопросы ответ. Но почему-то люди все равно стабильно переходят на сайты.

Ответить
Развернуть ветку
CLP
Автор

Разбираясь откуда взялись 200К страниц, я обнаружил несколько ошибок. Некоторые страницы дают ссылки на "соседние"... Например там где даты, есть ссылки на аналогичные страницы годом меньше, годом больше. А еще есть месяца, и даже некоторые дни попали... Я хотел проиндексировать фиксированный диапазон годов 1900 - 2024. Однако я не заблокировал индексацию остальных страниц в robots.txt и Goolge ушел индесировать средневековье... отсюда безумное количество страниц в индексе.

В сочетании с обновлением 5 мая, я думаю очевидно триггернуло scaled content.

Теперь вопрос что в этой ситуации делать?

1. Пока что я заблокировал очевидно не нужные мне страницы в robots.txt, посмотрим как быстро они вылетят из индекса и облегчит ли это как-то участь сайта.

2. Удалять полностью все страницы, кроме основной калькулятора - тогда теряется суть попытки занять низкочастотники... По основным запросам пробиться сквозь сотни подобных калькуляторов невозможно.

3. Можно попробовать "начать все с начала". Заблокировать все страницы, кроме главных страниц калькуляторов, дождаться пока они вылетят из индекса, посмотреть снимется ли фильтр, а потом аккуратно возвращать частями сгенерированных под низкочастотники страниц, параллельно делая их контент более уникальным.

Ответить
Развернуть ветку
8 комментариев
Раскрывать всегда