Корабли лавировали, лавировали… да вылавировали! История о том, как новый сайт чуть не стал Титаником бизнеса

Поисковый трафик и оплаты с сайта туроператора в сезон упали в 3 раза: разбираемся в причинах, возвращаем поисковый трафик, увеличиваем продажи, делаем выводы.

1010

Ну не "ускоряет индексацию" создание sitemap.xml в случае если речь идет о небольшом сайте (на десятки-сотни страниц, а не на тысячи-десятки тысяч). Вообще никак.

Sitemap.xml представляет пользу в двух случаях:
1) Реально много страниц, краулингового бюджета на обход всего сайта за 1-2-5 итераций не хватает и роботу нужно "помогать", информируя о наличии новых или недавно измененных страниц, на которые нужно обращать внимание в первую очередь
2) На сайте есть "orphan pages", попасть на которые естественным путем через навигацию по внутренним ссылкам невозможно. Но тут не sitemap.xml надо создавать, а ставить ссылки на подобные страницы.

Если говорить о Яндексе, то он вообще начнет обрабатывать карту сайта спустя 10-14 дней с момента ее создания. За этот же период поисковый робот уже успеет несколько раз пройтись по страницам без всякой карты.

В остальном хороший кейс, все по делу.

Ответить

Дмитрий, спасибо за комментарий!

В своём решении мы руководствовались следующей логикой: на данном сайте несколько тысяч страниц, без sitemap.xml поисковой робот мог зайти на прочие страницы, на которых изменения внесены не были, и пропустить значимые страницы - длительность индексации обновлений растянулась бы на больший период. Таким образом, sitemap.xml помог поисковому роботу качественно проиндексировать все разделы и страницы сайта.

Поисковой робот может и самостоятельно обойти страницы - верно, но для сокращения риска сбоя и не обнаружения некоторых страниц, стандартно, в своих проектах создаем sitemap.xml.

Ответить