{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Как ускорить индексацию сайта в Google?

Поисковое продвижение – это не просто создание контента и ожидание волшебной силы SEO. Одной из ключевых задач является быстрое индексирование страниц сайта, чтобы пользователи могли найти их в выдаче. Но что делать, если новые страницы продолжительное время не попадают в индекс Google? Решением этой проблемы может стать Indexing API – инструмент, который позволяет совершать массовую отправку URL для индексации в поиске Google (прямо как в Яндекс.Вебмастере). С помощью этого инструмента можно отправлять до 200 страниц в день на сканирование и последующую индексацию. Максимальное количество страниц, которые можно отправить за одно обращение 100.

Пошаговая инструкция по настройке Google Indexing API

1. Создание сервисного аккаунта

Переходим по ссылке и регистрируем аккаунт в Google Cloud. Если он уже создан, то переходим сразу к созданию проекта.

Кликаем на «CREATE PROJECT» для создания нового проекта.

Прописываем название проекта. Местоположение можно не указывать.

Переходим в раздел «IAM & Admin» в подраздел «Service accounts». Кликаем на «CREATE SERVICE ACCOUNT» для создания сервисного аккаунта.

В первой строке указываем название проекта. Во второй строке данные подтянутся сами.

Обязательно выбираем роль «Owner».

2. Создание JSON-ключа

Теперь необходимо создать ключ.

Обязательно выбираем тип ключа –JSON. Кликаем на «CREATE» и файл с ключом автоматически сохранится на ПК.

3. Предоставление доступа к сервисному аккаунту

Копируем email сервисного аккаунта.

Переходим в Google Search Console, выбираем сайт и переходим в раздел «Настройки», а далее в подраздел «Пользователи и разрешения».

Здесь добавляем почту сервисного аккаунта и обязательно указываем разрешение «Владелец».

4. Подключение Index API

Переходим по ссылке и включаем API.

5. Установка скрипта

Скачиваем скрипт с GitHub, а также файл node.js. Файл node.js устанавливаем. После распаковки файла скрипта для удобства меняем его имя на название проекта. То есть, вместо «google-indexing-api-bulk-master» переименовываем на «catalyst».

Далее заменяем в папке скрипта содержимое файла «service_account.json» на содержимое скачанного ранее JSON-ключа.

Лишних пробелов не оставляем!

В файл «urls» вписываем страницы, которые нужно проиндексировать и сохраняем (максимум 100 за одну итерацию).

Лишних пробелов не оставляем, иначе будет ошибка!

Далее через поиск Windows ищем «Windows PowerShell». Затем нужно указать путь к папке с проектом. Если папка находится на рабочем столе, то прописываем следующее:

  • cd Desktop
  • cd catalyst (имя может быть другое, в зависимости от названия проекта)

Устанавливаем файлы библиотеки. Для этого нужно поочередно отправлять следующие команды:

  • npm install requests

  • npm audit fix
  • npm audit fix --force

После того как все файлы библиотеки установлены, запускаем последнюю команду:

  • node index.js

По итогу должен быть код 200. Если же указан другой, смотрим справку и исправляем ошибки.

В дальнейшем, когда нужно будет проиндексировать новые страницы на этом проекте, в файле «urls» необходимо удалить старые URL и заменить на новые. В командной строке библиотеки устанавливать уже не надо. Нужно просто указать путь к папке с проектом и отправить команду node index.js.

0
22 комментария
Написать комментарий...
Виктор Петров

В чём новизна материала?

Ответить
Развернуть ветку
Дмитрий Шусов

Видимо ни в чем. Просто статья-напоминание.

Ответить
Развернуть ветку
Чайка О.

Просто статья-напоминание о себе )

Ответить
Развернуть ветку
Дмитрий Шусов

Сам не напомнишь - никто не напомнит)

Ответить
Развернуть ветку
Michael

Первое слово - анкорная ссылка. О чем тут говорить?

Ответить
Развернуть ветку
Виктор Петров

Ну так дохлый номер-то. Попытка засчитана, но увы.

Ответить
Развернуть ветку
Ross Alex

В ваш скрипте все норм, кроме того, что он должен делать это автоматически

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Michael

Да

Ответить
Развернуть ветку
Alexsander Zhamanakov

Теперь это не с работает. Гоша и Яша перестали друг другу помогать с индексацией страниц и вообще в продвижении. Между ними контра была всегда и изначально, но теперь алгоритмы Гоши вообще игнорируют все запросы от Яши.
Мы продвигаем свои страницы ссылками, от 1 млн., штук минимум, тогда алгоритм Гоши подхватывает не менее 10%, как правило всего 7% и выводит в топ. Для Клиентов вообще от 1 млр., ссылок делаем на главную страницу, для индексации в топе. Но это все равно дешевле всех существующих схем продвижения....

Ответить
Развернуть ветку
Вероника Чернушич

Закупаете ссылки миллионами? И сколько получается, если не секрет, по расходам для одного сайта?

Ответить
Развернуть ветку
Alexsander Zhamanakov

200 бакинских 1 миллион, примерно, качественных ссылок, разумеется.

Ответить
Развернуть ветку
Ross Alex

1 Миллион ссылок за $200?! Что-то я сильно сомневаюсь в их качестве, уж простите ☺️

Ответить
Развернуть ветку
Виктор Петров

Ну там судя по всему хрумер молотит. Переплачивают поди

Ответить
Развернуть ветку
Alexsander Zhamanakov

Когда работаешь со ссылками с 2000 года, да, теперь не дорого, от объема заказов, учитывая свои сервера по всему миру и дата-центра.

Ответить
Развернуть ветку
Ross Alex

У вас свои ДЦ? 🙄

Ответить
Развернуть ветку
Alexsander Zhamanakov

Да, за долги достался под управление в Нидерландах.

Ответить
Развернуть ветку
Виктор Петров

А при чём тут Яндекс, если речь об API Гугла?

Ответить
Развернуть ветку
Alexander Gulyaev

А как последнюю часть инструкции сделать на маке, а не на windows?

Ответить
Развернуть ветку
Roman Makena

у меня получилось

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Антон Бондаренко

Да, а если sitemap постоянно обновляется и содержит в себе более 20 тысяч страниц? Гугл тупит нещадно. Яндекс переобходит страницы примерно за неделю. В Гугле у меня за 3 недели проиндексировано 600 страниц. За три недели эти страницы уже устарели и удалились из sitemap. А новые ещё не проиндексированы.
В чём прикол этого Гугла, если в итоге он выдаёт людям тухлятину?

Ответить
Развернуть ветку

Комментарий удален автором поста

Развернуть ветку
Linda Bjorkvin

Ботом индексируйте, быстро и недорого @speedyindexbot

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
19 комментариев
Раскрывать всегда