Краулинговый бюджет — это определённое количество ресурсов, которое Googlebot тратит на сканирование вашего сайта. Он необходим, чтобы приоритезировать, что и когда сканировать и сколько ресурсов для сканирования может выделить хостинг, размещающий ваш сайт.
Размер бюджета зависит от различных факторов: размера сайта, скорости генерации страниц, структурных факторов, объёма запросов, по которым ранжируется сайт, их частотности и других.
Крутая статья, спасибо! Редко когда увидишь не просто советы в статье, а еще и анализ.
спасибо!
Комментарий недоступен
В принципе да, Александр, но "смотреть ежедневно" - это очень оптимистичный настрой. Там не так мало данных и не такой уж это приятный процесс. Поэтому, как правило, на вопрос клиентам "Вы логи собираете"? Ответ "Да". "А вы когда-нибудь в них заглядывали?" Ответ "Нет." Ну и первая цель хранения логов - это на случай, вдруг если что-то глобальное упадет. Мы же показываем, какую пользу можно брать на регулярной основе. Приятно, если мы вас этим заразили.
Была бы ещё интересна статистика по роботам: кто чаще ходит, в какое время суток, корреляция между скоростью загрузки и количеством посещений. В общем, хочется взглянуть на цифры, но это уже, наверное, вне контекста статьи.
мы делали подобные выборки, там инфы еще на пару статей, у гугла например есть зависимость между ботами адвордса и основным гуглботом - добавили большую кампанию на кучу кеев - набежали боты адвордса, основной бот гугла ушел - если не анализировать в комплексе, то можно испугаться))
на яндекс не такая сильная зависимость в крулинге по глубине сайта, если например в целом по гуглу crawl ratio низкий, а по яндексу высокий - часто говорит по проблемах в структуре
Статья хороша реальными данными, спасибо! Особенно впечатлило машинное изучение краулинга Гуглбота. Однако данные на графике не совсем понятны. Какие же факторы больше всего влияют на краулинговый бюджет?