Поисковые системы совершают периодическую индексацию сайта. Они обходят его страница за страницей. Нередко на сайтах, особенно больших и особенно работающих на различных CMS, встречаются битые ссылки и страницы, которые возвращают коды ответов отличные от 2xx, т. е 3xx, 4xx, 5xx.
Тема хорошая. Но я бы акцент всё таки сделал на более развернутом описании решения.
И ещё важный момент - это анализ объёмных логов. На прилично нагруженном проекте логи попросту огромные, там для толкового анализа лягушкиным анализатором не справиться - облачный сервер нужен. Тут вопрос собственно рабочего сервера особо интересен.
обязательно облачный? ))
в статье есть ответ, ты просто не шаришь в этом
Комментарий недоступен
Комментарий удалён модератором
В статье ответил на этот вопрос )
"Поисковые системы разумеется обходят все эти страницы. Даже те, которые отдают 301, 404 и 500 коды ответов. Что, во первых, расходует определенную квоту, которая позволяет обойти N-колчество страниц за раз, а во вторых понижает качество сайта в глазах поисковой системы.
Чем больше на сайте ошибок, битых ссылок, редиректов и прочего мусора, тем ниже сайт будет ранжироваться в поисковой системе, поскольку такой сайт является низкокачественным. Это подтверждается банальной логикой и эмпирическими данными."
Комментарий недоступен