АП: Это и есть фактор заспамленности. Если это тематические сайты, то это одна история, а если это сайт, образно говоря, каких-то «левых, непонятных» услуг, то это другая история. Поисковые системы распознают тематику, даже если сайт - это казино или форму для знакомств. «Винегрет» из 200-300 ссылок на веб-ресурсы с различной тематикой обеспечит сайту высокую заспамленность.
Он буквально насаживаетМожет... насаждает?
Не так бы я это формулировал, совсем не так.
а) Ранжирование - это система фильтров. Если не брать особое внимание Гугла к хосту, то схема строится в обеих ПС на системах фильтров. Не прошёл по текстовой релевантности - ПС не будут оценивать ни ссылочные метрики, ни поведенческие, ни коммерческие. Те же поведенческие особое значение приобретают только после попадания сайта в топ-10-20, не раньше.
б) Я бы обязательно отметил, что все эти метрики имеют долю алгоритмической оценки (процентов эдак 80+) и ручную формулу, включающую как ручные корректировки, так и проверки сотрудниками поисковиков - асессорами и толокерами. Чем ближе к топам - тем больший риск повстречаться с людьми, вручную оценивающими какие-то параметры сайта.
Ну, и надо понимать, что некоторые сайты топы занимают не потому, что такие хорошие - просто там есть хостовый бонус, вручную заданный приоритет. Пальцем показывать не буду, вы знаете, о каких сайтах речь.
Ну, и пассаж про Гугл в бурже. Там ларчик намного проще открывается: корпорация добра попросту не тратит вычислительные ресурсы на нецелевые регионы, и многие страшные фильтры в рунете попросту не работают. Просто вообразите, какие ресурсы нужны, чтобы оценить ссылочный граф для одного ресурса, просчитывая веса и качества всех узлов, входящих в этот граф.
Виктор, спасибо большое за проявленный интерес к нашей статье, данная информация, описана в первом блоке статьи возможно не так расписано тезисно, как расписали Вы.За дополнение спасибо.
С некоторыми Вашими позициями я не согласен так как фактор и ресурс разные вещи.И если представить то что вы написали про гугл и сколько нужно людей что бы проверять даже и высокочастотные запросы, проще написать ПО с искусственным интеллектом который будет проверять страницы и днем ночью, что в принципе и делает Гугл. Видимо поэтому так часты его обновления.