Как заставить Google увидеть ваш сайт?

Мы занимаемся SEO продвижением сайтов и, когда к нам попадают интернет-магазины, мы часто видим не очень радужную картину с разницей проиндексированных страниц в Яндекс Вебмастер и Google Search Console. Что с этим делать?

На примере сайта moto-active.ru в Яндексе было проиндексировано 15000+ страниц, а в поиске было около 6000 страниц (кстати, эта цифра как раз очень близка к правде), Google увидел всего 1,13 тыс. страниц. 1763 были даже не просканированы плюс 1240 просканированы, но не проиндексированы. Честно говоря, это большие цифры для интернет-магазина.

Как заставить Google увидеть ваш сайт?

Чем это грозит и что делать с такими страницами?

Ответ напрашивается сам собой: загонять в индекс любой ценой! Что делали раньше? Было несколько путей:

1. Проверка URL в Google Search Console и потом запросить индексирование

Работает? Да, но очень долго и муторно!

2. Создание отдельной Sitemap.xml и добавление этой карты в Файлы Sitemap

Работает? Да, но через раз, некоторые файлы так и остаются без сканирования.

Увы, каждый вариант работал не очень хорошо, наткнулись на статью и решили пробовать

Тестируем Google Indexing API

Мы выбрали для теста два сайта c очень плохой видимостью в Google на WordPress и начали добавлять в обход по 200 страниц в день. Спустя 1-2 дня страницы попадают в индекс и начинаются показы.

Работает? Да, быстро и удобно, можно использовать как для переобхода изменившихся страниц, так и для добавления в индекс существующих.

Ну и время выводов!

Стало ли больше трафика? Да! На этих проектах его было совсем немного, поэтому рост очень значительный в процентах, в количественном значении по 20-30 кликов в день.

Улучшились ли позиции у страниц, которые уже были в индексе? Роста мы пока не заметили, возможно, чуть позже он и будет (за счет улучшения общего качества сайта)

Задумались о продвижении сайта?

77
34 комментария

Забавно. Недавно увидел такие же результаты (сайт не индексировался 4 месяца, после подключения Index Now - через 3 дня пошел десятками страниц). Но у меня не было возможности лабораторно подтвердить, что это не совпадение (мог ведь гугл и сам его найти? и ведь на шел через 3 дня, а не сразу).
Но теперь вижу, что эта теория работает.
Вещь крайне полезная. По моим соображениям (и веткам на форумах вебмастеров) гугл стал медленнее и избирательнее индексировать новые сайты. Раньше он почти "должен" был проиндексировать любой уникальный сайт. Теперь же, если какие-то малейшие проблемы - может игнорировать месяцами.
Тем удивительнее, что Index Now работает. По факту это как руками добавлять урлы в консоли. Но руками не работает, а это - работает. Может, дело в количестве страниц и одновременности (200 сразу, а не 200 по очереди за 2 дня допустим).

1
Ответить

Согласен, вот сайт был немного недоработан местами и он его 5 месяцев не ел, было только 20 страниц в индексе, потом я доработал и вылизал по техничке, закупил ссылки, за еще 2 месяца работы дошло до 35 еле еле, основное залезло и ладно, теперь руками принудительно отправил и уже за неделю 100 штук в индексе, я так понял индекс апи тоже самое только много и без рук.

Вообще я в целом про то, что гугл в последнее время неохотно индексирует сайты и его нужно тыкать в нужные страницы что бы он их съел.

Ответить

Index Now пинок дает, но лучше ручного переобхода и карты сайта для яндекса нету ничего

Ответить

И второй проект

1
Ответить

А есть какие то подводные камни? тоже последнее время часто читаю про эту проблему и про это решение, как раз собираюсь изучить настройки апи для одного из проектов опробовать. Просто смотрю уже 4 голоса за и 3 голоса против данного поста, значит вызывает противоречия и мне хотелось бы знать в почему.

Ответить

Ежели в рамках SEO обсуждать попытки загнать в индекс любой ценой - ну, эдак мы и до мышей...
Но тут ещё вот какой момент. Автор даже не задумывается, почему Гугл не индексирует сайт. Ни слова о возрасте домена, настройках сканирования, техничке, дублях, ссылках и т.п.
Если Гугл не хочет индексировать сайт - на то обычно есть три веские причины:
а) не может
б) контент совсем дрянь
в) рано ещё
И надо ответить себе на вопрос: а стоит ли вообще загонять в индекс всё подряд? Ну, обойдёт робот побольше, а если там сплошь тонкий контент? Цель вот такой принудительной индексации в чём? мусор в выдаче точно не нужен.
Отсюда - и ценность самого кейсика.

1
Ответить

Минусов, по-моему, нет. Нужно разово потратить время чтобы всё настроить, а так даже не представляю. Ну, и если слишком рано массово показать сайт гуглу (недоделанный), то тоже может аукнуться. Но в остальном лично я радуюсь и надеюсь, что лавочку не прикроют.

1
Ответить