Важно помнить, что Googlebot учитывает атрибут lastmod при сканировании страниц, но если вы установите неправильное значение для него, оно не будет учитываться в будущем.
Количество файлов Sitemap не играет при индексировании роли:
на стороне Google происходит объединение всех файлов Sitemap, и URL из них обрабатываются совместно, независимо от количества файлов, которые вы предоставили.
Google поддерживает четыре способа передачи дополнительной информации в файле Sitemap:
1. Расширить URL, включив туда графические файлы,
2. Расширить URL, включив туда видеофайлы,
3. Включить туда информацию о разных языках или локализованных версиях страниц с помощью атрибута hreflang
4. Для новостных сайтов можно использовать особый вид Sitemap, чтобы сообщить информацию о самых последних обновлениях.
Уважаемый автор! В данной статье Вы не раскрыли суть, о чём хотели сказать "как XML–карта при грамотном использовании, может очень улучшить ваши позиции в поисковой выдаче." Описали только технические моменты, которые итак повсюду в интернете!
Добавлю, что часто встречается проблема страниц-"сироток": это когда единственная ссылка на страницу ведёт из sitemap.xml. Роботы страницу видят, а вот пользователь может туда попасть только из поиска. То есть те же товарные карточки не имеют шанса в таком раскладе получить трафик вообще.
При проблемах с перелинковкой огромный объём контента фактически выпадает из учёта. А уж если и в сайтмап такие странички не попадают - дело совсем плохо.
Интересная статья, много технических моментов есть, наверно здорово было бы если автор указывал пример где примеряется тот или иной технический фактор с применением работы с картой сайта, оказанием проблемы и применения решению на основании которых был сделан вывод.
Дополнительно использованием сайтов, на личном опыте эксперименты всегда более привлекают внимание аудиторию.