Слив алгоритмов поиска Google. Что раскрыла утечка?

Всем привет! Меня зовут Айрат Рахимзянов. Я автор ТГ-канала «SEO-секретики». Сегодня поговорим про утечку в Google, которая произошла недавно.

Итак, в сети опубликовали подборку внутренних документов Google, содержащую более 2500 страниц. Судя по всему, документация была слита в марте 2024 года, но обнаружили ее только в мае. По данной теме уже есть много информации. Однако, так как мы специализируемся на ссылочном продвижении, я решил сделать акцент на полезностях в плане линкбилдинга.

Если вам удобнее смотреть, а не читать, то предлагаю изучить тот же самый материал, но в видео формате:

Шокирующий слив алгоритмов Google. Что раскрыла утечка?

Перед тем как начнем, оговорюсь, что совершенно однозначно интерпретировать большинство данных мы по-прежнему не можем, потому что не знаем как именно эти элементы используются в алгоритме в связке с другими факторами. Поэтому стоит использовать слова «возможно» или максимум «вероятнее всего». Известно точно, что утечка подлинная (Google не опроверг ее отвечая Барри Шварцу), модули не устаревшие и быстро изменить их логику работы вряд ли ребята из Google смогут. Также мы не знаем весов элементов в алгоритмах — можем только предполагать.

Я прикрепил пруфы к каждому пункту (с помощью ссылок на фрагмент текста источника) и, иногда скрины с авто переводом браузера. Где-то были неточности перевода, но в общем и целом, сама суть должна быть понятна.

➡️ Открывайте статью и поехали!

1. Тематичность доноров

Google может игнорировать ссылки, если акцептор не совпадает по тематике с донором. Однако, идет ли речь о всем домене донора или его отдельной странице, конкретики нет.

Осторожно! Это автоперевод в браузере Chrome (здесь и далее в этой статье)
Осторожно! Это автоперевод в браузере Chrome (здесь и далее в этой статье)

Собственно поэтому специалисты, которые занимаются выстраиванием ссылочного, делают упор на поиск именно тематичных сайтов — для покупки на биржах или при простановке из сетки дроп-доменов. Но везде есть нюансы. Об этом еще поговорим дальше.

2. Свежесть ссылок

Ссылки с новых страниц иногда могут иметь больший вес, чем ссылки со старых страниц. Это подтверждает важность постоянного процесса линкбилдинга.

Также, важно замешивать разные типы ссылок. И со старых страниц и с новых. На ссылочных биржах поменьше брать постовых с уже существующих страниц или арендные ссылки. Больше ориентироваться на новые страницы, например, в ссылочных биржах (Miralinks, GoGetinks).

Мы с собственных сеток оставляем, чаще всего, одну ссылку с главной страницы (так называемой «морды»), просто, потому что там больше веса. И ставим еще одну дополнительную ссылку — нетиповую. Постоянно меняем метод простановки — чем более хаотичный порядок, тем лучше. Как с новой страницы можем поставить, так и с существующей (ссылку с картинки, допустим).

Судя по сливу, чем больше ссылок с морд, тем лучше. Контент на дропах делаем с упором на вписывание самых частотных ключевых фраз в начале страницы — в этом плане ничего нового.

3. Локальная релевантность

Ссылки лучше ставить из той же страны, из которой физически продвигаемый проект (локальная релевантность в США – по штатам, в России – по регионам). Такие ссылки ценнее и это вполне логично.

Слив алгоритмов поиска Google. Что раскрыла утечка?

4. Три ранга качества ссылок

Google классифицирует проиндексированные ссылки на 3 ранга качества: низкое, среднее и высокое. Речь идет о базах проиндексированных ссылок (link indexes).

Клики из поиска (в браузере Chrome) напрямую влияют на ранг качества донора. То есть покупать ссылки с доноров без органики не стоит. Если делать вывод только по одному этому пункту, то получится следующее:

Если страница со ссылкой на продвигаемый сайт не ранжируется и не получает органического трафика из поисковых систем, то эта ссылка может не отработать так, как планировалось.

Рэнд Фишкин считает, что отсутствие кликов по странице из браузера Google Chrome может обесценивать качество ссылки с донора:

Слив алгоритмов поиска Google. Что раскрыла утечка?
Рэнд Фишкин, известный специалист по поисковому продвижению и совладелец moz.com
Рэнд Фишкин, известный специалист по поисковому продвижению и совладелец moz.com

Можно также дополнительно «усиливать» документы, которые ссылаются на ваш сайт, переходами из органики и, далее, еще и кликами на вашу ссылку из этого документа. Мы тестировали подобную тему давно и у нас позитивных результатов не было.

Сейчас же, из этой утечки всплыла информация о Navboost и пяти минутах времени, проведенных на странице. Якобы проведение сверх указанного времени влияет позитивно на ранжирование. Но много нюансов с поведенческими есть, например, то как оценивает эти клики антиспам алгоритм. Нужно сильно постараться, чтобы боты были похожи на реальных людей с большой историей и платежной информацией в сервисах Google.

Navboost собирает данные о том, как пользователи взаимодействуют с поисковой выдачей, в частности, через клики по различным запросам.

5. Spam Score

Любые внешние ссылки на веб-страницах связаны только с показателем Spam Score. В данном контексте нет никакой связи с качеством и рейтингом сайта.

Была раньше такая теория, что когда с документа помимо ссылки на продвигаемый сайт еще специально ставились ссылки на трастовые сайты типа Википедии, новостные сайты или соц. сети (так называемые маскировочные ссылки). Это считалось, что никак не вредит сайту и даже помогает ранжированию страницы. Оказалось, что это влияет только на спам скоринг.

6. Авторитетность домена

У Google есть понятие рейтинга авторитетности сайта (несмотря на то, что Джон Мюллер из Google не раз отрицал это). В новом сливе мы видим, что существует оценка SiteAuthority, основанная на качестве и количестве ссылок:

Слив алгоритмов поиска Google. Что раскрыла утечка?

7. Учет версий страниц

Google способен сохранять версии страниц после их изменения, подобно Веб-Архиву. Однако учитываются только последние 20 изменений. Это означает, что нужно регулярно обновлять контент.

Слив алгоритмов поиска Google. Что раскрыла утечка?

При использовании старых дроп-доменов недостаточно купить его и размещать новый контент по его старым URL-адресам. Необходимо регулярно обновлять контент, чтобы постепенно сделать менее значимым то, что было на этих страницах ранее.

Также, вероятно, стоит создавать новые страницы с чистой историей и проставлять с них ссылки на продвигаемый сайт. Во-первых, если создать новую страницу, то проблем с учетом историй изменений не будет, в принципе. Во-вторых, есть эффект усиления ссылок с новых страниц, если верить пункту 2.

8. Ценность главной страницы

Чем больше Google доверяет главной странице сайта, тем более ценными (вероятно) являются для него ссылки со всех остальных страниц. Отсюда и ссылки с морды у тех, кто занимается ссылочным на практике. Очевидно, что чаще всего морды прокачаны ссылками сильнее всего и это дает нашему документу приятный PageRank.

Мы обычно ставим с дропов одну ссылку с морды и одну нетиповую с любой другой страницы (старой или новой). Про разные нетиповые ссылки рассказывал на конференции Baltic Digital Days в прошлом году.

9. Ссылки со СМИ

Google зачем-то помечает ссылки, которые приходят с новостных и «высококачественных» сайтов, таких как New York Times, The Guardian, BBC. Мы точно не знаем, как это используется дальше. Но логично, что получение ссылок из СМИ, несомненно, должно быть очень ценным источником.

Это один из источников ссылок также и у нас в агентстве. Обычно, на биржах мы закупаемся по жестким фильтрам с упором на тех доноров, которые имеют видимость по продвигаемому ядру, ранжирование в тематике и в идеале, тенденцию роста в органическом трафике. Также, разбавляем ссылочную массу с сайтов СМИ, особенно региональных, так как московские могут стоить дорого.

Сюда бы еще отнес сайты, которые Google полюбил с недавнего времени и выдает сильно больше трафика, чем раньше. Например, Reddit. В плане ссылочного, можно пытаться и туда заходить, чтобы переливать целевой трафик из данного источника на продвигаемый сайт.

Вообще, хороший лайфхак, когда после очередного кор-апа или спам апдейта, возникают первые аналитические данные: кто сильнее всего упал, а кто вырос. Соответственно, важно пытаться залезать в эти источники, которые растут в трафике, чтобы получить оттуда ссылку, как с ресурса, который по какой-то причине полюбил Google. Плюс, будет приятно перелить дополнительный трафик на клиентский сайт, чтобы получить с него целевые лиды.

10. Ссылки с сайтов-хабов

Ссылки с трастовых сайтов-хабов (так называемые seed sites) являются самыми ценными ссылками, которые вы могли бы добыть.

К таким сайтам Google в своем патенте в качестве примера отнес New York Times и Google каталог (он все еще существовал, когда патент был подан).

Согласно патенту PageRank, оценки присваиваются страницам в зависимости от того, насколько далеко в ссылочной цепи они находятся от сайтов-хабов. Хотя, это описание очень похоже на алгоритм TrustRank.

Можно сделать простой вывод:

Ценность ссылки определяется сложностью её получения. Чем сложнее получить ссылку, в принципе, тем она приятнее отработает. И речь не про стоимость. Есть ресурсы, которые не продают ссылки, вообще, но могут сослаться на вас (на какие-то события и т.п.).

11. Определение спамных ссылок

Google умеет определять спамные ссылочные атаки, манипулирующие системами ранжирования (phraseAnchorSpamDays). Многие сеошники уверены, что такая проблема существует. Слитая информация по алгоритмам дает нам некоторое представление о выявлении таких атак по следующим атрибутам:

  • временной отрезок, в течение которых были обнаружены спам-ссылки (если количество анкорных спамных ссылок превышает 80%, то могут быть негативные последствия);
  • среднесуточное количество спама;
  • когда наступил пик спама;

Все параметры:

Автоперевод скриншота из <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fsearchengineland.com%2Flinks-digital-pr-key-takeaways-google-documentation-leak-442905%23%3A%7E%3Atext%3DThe%2520documentation%2520gives%2Ca%2520spike%2520started.&postId=1283883" rel="nofollow noreferrer noopener" target="_blank">источника</a>.
Автоперевод скриншота из источника.

Есть и другие параметры, их можно поискать в удобной и большой таблице по маркерным словам. Рекомендую покопаться в ней.

Из опыта могу сказать, что в наиболее конкурентных тематиках, например, в покере, подобный спам не редкость. Ежедневно могут прилетать десятки тысяч спамных ссылок. Сервис Google Disavow Links, в этом случае, хорошо спасает.

12. Штрафы за спам

У Google есть возможность применять штрафы/санкции/фильтры за спам, то есть игнорировать ссылки по отдельности или все ссылки донора целиком.

Рекомендую периодически и планово, хотя бы, 1 раз в 3-6 месяцев прорабатывать файл для сервиса Google Disavow Links.

Почитайте связанную с этой темой статью о том, как можно определять хорошие и плохие ссылки и что с этим вообще делать.

Также, и страница-акцептор может быть оштрафована за наличие плохих обратных ссылок (так называемые toxic links).

Для понимания контекста ссылки, вероятно, используется не только анкор, но и окружающий ссылку текст.

13. Штраф за EMD

Возможны штрафы за доменные имена, которые точно соответствуют небрендовым поисковым запросам, например мужские-часы.рф или milwaukee-homes-for-sale.net. Это подтверждает информацию от Мэтта Каттса от 2012 года:

Твит Мэтта Каттса
Твит Мэтта Каттса

14. Отслеживание дропнутых доменов

Google отслеживает, когда истекает срок действия доменов, поэтому они могут обнаружить случаи злоупотребления доменами с истекшим сроком действия.

Тут, как бы, ничего сложного. И про футпринты уже не раз говорили, как можно обнаружить сетку.

Подводим итог

Вообще, теперь можно констатировать, что вот, оказалось, что мы правы и надо так делать. Поэтому слушайте практиков, а не теоретиков, которые верят словам представителей Google. Как оказалось, им нельзя доверять.

Интересно, узнали ли вы что-то новое из этого слива алгоритмов Google, напишите об этом в комментариях. Интересно будет почитать. 👍🏻

Кто занимается ссылочным продвижением и так понимают, что ссылки как работали, так и продолжают работать.

Пожалуй, самыми важными выводами, которые можно отметить из слитых данных, являются:

  1. Релевантность – ссылки должны приходить с тематических страниц и из соответствующего региона.
  2. Трастовость ссылок – ценнее прямые ссылки с авторитетных интернет-хабов или СМИ.

Еще, в качестве вывода, по поводу поведенческих факторов в Google – они есть и они работают, но, видимо, пока что это какой-то сложный механизм, где есть довольно дорогая точка входа, что и хорошо на самом деле. Пока этого не будет в паблике точно. Вопрос времени, когда ребята, которые специализируются на этом направлении разгадают, что именно нужно делать, чтобы получать результат по поведенческим в Google. Поэтому, также, в ссылочном плане все более предсказуемо и понятно, как и было раньше.

Если вы хотите глубоко погрузиться в слитую документацию Google, то лучше читать первоисточники (раз, два, три) хотя бы с автопереводом страницы. А здесь смотрите слитые модули.

Напоминаю, что я руковожу агентством интернет-рекламы. К нам можно обратиться за услугами SEO-продвижения, контекстной рекламы, контентом и для внедрения правок в тех. отделе. Мы работаем как в рунете, так и в бурже. Так что жду владельцев бизнеса у себя в личке!

Всем спасибо. Пока!

1616
33
11
4 комментария

узнали ли вы что-то новое из этого слива алгоритмов Google, напишите об этом в комментарияхПишу: не узнала.
Поэтому слушайте практиковПрактик может быть узкоспециализированным, а в SEO смена ниши дает другой опыт.
а не теоретиков, которые верят словам представителей Google. Теоретик без практики? Это те, кто рефераты пишет?
Представители Гугла, кстати, говорят разное. Иногда противоречат ранее сказанному. Так чему верить, а чему нет?
Как оказалось, им нельзя доверять.Кому? Теоретикам или гуглоидам?

1

Похоже, что верить можно только себе и результатам экспериментов

3