Как ускорить индексацию сайта в Google?
Поисковое продвижение – это не просто создание контента и ожидание волшебной силы SEO. Одной из ключевых задач является быстрое индексирование страниц сайта, чтобы пользователи могли найти их в выдаче. Но что делать, если новые страницы продолжительное время не попадают в индекс Google? Решением этой проблемы может стать Indexing API – инструмент, который позволяет совершать массовую отправку URL для индексации в поиске Google (прямо как в Яндекс.Вебмастере). С помощью этого инструмента можно отправлять до 200 страниц в день на сканирование и последующую индексацию. Максимальное количество страниц, которые можно отправить за одно обращение 100.
Пошаговая инструкция по настройке Google Indexing API
1. Создание сервисного аккаунта
Переходим по ссылке и регистрируем аккаунт в Google Cloud. Если он уже создан, то переходим сразу к созданию проекта.
Кликаем на «CREATE PROJECT» для создания нового проекта.
Прописываем название проекта. Местоположение можно не указывать.
Переходим в раздел «IAM & Admin» в подраздел «Service accounts». Кликаем на «CREATE SERVICE ACCOUNT» для создания сервисного аккаунта.
В первой строке указываем название проекта. Во второй строке данные подтянутся сами.
Обязательно выбираем роль «Owner».
2. Создание JSON-ключа
Теперь необходимо создать ключ.
Обязательно выбираем тип ключа –JSON. Кликаем на «CREATE» и файл с ключом автоматически сохранится на ПК.
3. Предоставление доступа к сервисному аккаунту
Копируем email сервисного аккаунта.
Переходим в Google Search Console, выбираем сайт и переходим в раздел «Настройки», а далее в подраздел «Пользователи и разрешения».
Здесь добавляем почту сервисного аккаунта и обязательно указываем разрешение «Владелец».
4. Подключение Index API
Переходим по ссылке и включаем API.
5. Установка скрипта
Скачиваем скрипт с GitHub, а также файл node.js. Файл node.js устанавливаем. После распаковки файла скрипта для удобства меняем его имя на название проекта. То есть, вместо «google-indexing-api-bulk-master» переименовываем на «catalyst».
Далее заменяем в папке скрипта содержимое файла «service_account.json» на содержимое скачанного ранее JSON-ключа.
В файл «urls» вписываем страницы, которые нужно проиндексировать и сохраняем (максимум 100 за одну итерацию).
Далее через поиск Windows ищем «Windows PowerShell». Затем нужно указать путь к папке с проектом. Если папка находится на рабочем столе, то прописываем следующее:
- cd Desktop
- cd catalyst (имя может быть другое, в зависимости от названия проекта)
Устанавливаем файлы библиотеки. Для этого нужно поочередно отправлять следующие команды:
npm install requests
- npm audit fix
npm audit fix --force
После того как все файлы библиотеки установлены, запускаем последнюю команду:
- node index.js
По итогу должен быть код 200. Если же указан другой, смотрим справку и исправляем ошибки.
В дальнейшем, когда нужно будет проиндексировать новые страницы на этом проекте, в файле «urls» необходимо удалить старые URL и заменить на новые. В командной строке библиотеки устанавливать уже не надо. Нужно просто указать путь к папке с проектом и отправить команду node index.js.
В чём новизна материала?
Видимо ни в чем. Просто статья-напоминание.
Просто статья-напоминание о себе )
Сам не напомнишь - никто не напомнит)
Первое слово - анкорная ссылка. О чем тут говорить?
Ну так дохлый номер-то. Попытка засчитана, но увы.
В ваш скрипте все норм, кроме того, что он должен делать это автоматически
Комментарий недоступен
Да
Теперь это не с работает. Гоша и Яша перестали друг другу помогать с индексацией страниц и вообще в продвижении. Между ними контра была всегда и изначально, но теперь алгоритмы Гоши вообще игнорируют все запросы от Яши.
Мы продвигаем свои страницы ссылками, от 1 млн., штук минимум, тогда алгоритм Гоши подхватывает не менее 10%, как правило всего 7% и выводит в топ. Для Клиентов вообще от 1 млр., ссылок делаем на главную страницу, для индексации в топе. Но это все равно дешевле всех существующих схем продвижения....
Закупаете ссылки миллионами? И сколько получается, если не секрет, по расходам для одного сайта?
200 бакинских 1 миллион, примерно, качественных ссылок, разумеется.
1 Миллион ссылок за $200?! Что-то я сильно сомневаюсь в их качестве, уж простите ☺️
Ну там судя по всему хрумер молотит. Переплачивают поди
Когда работаешь со ссылками с 2000 года, да, теперь не дорого, от объема заказов, учитывая свои сервера по всему миру и дата-центра.
У вас свои ДЦ? 🙄
Да, за долги достался под управление в Нидерландах.
А при чём тут Яндекс, если речь об API Гугла?
А как последнюю часть инструкции сделать на маке, а не на windows?
у меня получилось
Комментарий удален модератором
Да, а если sitemap постоянно обновляется и содержит в себе более 20 тысяч страниц? Гугл тупит нещадно. Яндекс переобходит страницы примерно за неделю. В Гугле у меня за 3 недели проиндексировано 600 страниц. За три недели эти страницы уже устарели и удалились из sitemap. А новые ещё не проиндексированы.
В чём прикол этого Гугла, если в итоге он выдаёт людям тухлятину?
Комментарий удален автором поста
Ботом индексируйте, быстро и недорого @speedyindexbot
Комментарий удален модератором