В большинстве случаев эти ошибки возникают из-за проблем Google с Javascript, Flash, редиректами, куками или фреймами. Вам не нужно беспокоиться о исправлении ошибки, пока не появятся проблемы с неиспользованными URL-адресами на высокоприоритетных страницах. Если они происходят от старых URL-адресов, которые не активны или от непроиндексированных параметров, которые служат дополнительной функцией, приоритет будет ниже. Эти ошибки вам лучше проверять, что называется, anyway.
Спасибо. будем стремиться к 100% :)
Правда на практике ещё ни разу не встречались сайты без этих ошибок. Гугл всегда что-то найдёт даже на технически вылизанном сайте.
Sitemap не обязательно использовать, если у вас на главной есть ссылка на страницу или ее анонс висит там какое то время. Или если на страницах есть виджет Похожие записи. Гугл сам найдёт. Многие парятся с этим sitemaпом, а можно просто забить.
Если сайтик совсем маленький - можно и забить. Но на объёмах, да при кривой CMS, да с косячьём в настройках краулинга - пачку страниц вне индекса словить за нефиг нафиг.
Так хоть в сайтмапе ссылки будут торчать.
Ну и плюс если есть противоречивые директивы на уровне каноникал, кривых мета роботс и т.п. - сайтмап может выступить решающим фактором в пользу выбора чего-то роботом. Это всё таки серьёзный файлик, не кот чихнул.
Да, это в идеале конечно:) На практике, их скорее всего, и не существует вовсе.
Сеарч консоль иногда показывает, что страница просканирована, но не проиндексирована, т.е. её нет в поиске. А забиваешь запрос в поиск и она там есть)) потому сначала проверяйте, а потом делайте. Ну и самое важное, как в армии: если что то работает - не трогай! Лучше не станет, а инициатива наказуема.
Консоль давно врёт, как сивый мерин. Но отчасти лишь потому, что индекс там не один, и что подразумевается конкретно - не понять. Может ранжироваться конкретный шингл, не весь URL. Или подразумевается, что в индекс внесено, показов нет. Или ещё что-то.
Прошли времена, когда работа с данными была простой и понятной.