Как работает ссылочная масса. Зачем проставлять ссылки? Какие сайты брать?

Ссылочное ранжирование, это огромная динамическая/стохастическая модель, которая постоянно перерасчитывается/перераспределяется, без нашего ведома.

Зачем нужен ссылочный анализ?

Ссылочный анализ, это прежде всего просмотр “пузомерок”, таких как ahrefs, serpstat, и прочих.

По моему мнению, он нужен для:

  • Определить “максимальный порог”, возможный “взрыв” ссылочной массы для вашего проекта;
  • Посмотреть ссылочную массу конкурентов, по возможности убрать мусор, и найти стоящие ссылки.
  • Также надо будет понять, на каких сайтах легко проставить ссылки, какие будут не лишними. Например, на каком-нибудь сайте с профилями, bla-blachina.com будет легко проставить ссылку, но будет ли от нее толк. А вот поставить ссылку с профиля hh.ru, уже другой вариант, об этом напишу дальше.
  • Под мусором, понимаются сайты:
  • 1. Слишком низкие “пузомерки”, большие разрывы UR и DR, хотя это и не является окончательным показателем;
  • 2. Ссылки стоят не в области основного контента сайта, где-нибудь сбоку, написанными белым шрифтом на белом фоне;
  • 3. Те сайты, на которых можно легко поставить ссылку, обратившись на кворк, простановкой программ, таких как Хрумер, ГСА. Таким “мусором” легко заняться, они не стоят времени для ссылочного анализа;
  • 4. В т.ч для возможной выкачки базы, не всегда удается повторно сделать простановку ссылок по тем сайтам, какие у конкурентов, ввиду возможной-повторной фильтрации сайта, владельцами. Созданием новых фильтров и прочего;

    Хотя достать 1-2 ссылки из базы в 4000 строк неплохо, по-крайней мере на продвижении в худшую сторону это не скажется.

  • Плюс ко всему, не надо забывать, что также надо смотреть количество проиндексированных страниц, которые ссылаются на конкурента, соотношение межу найденными в Ахрефс ссылками, и кол-вом проиндексированным гуглом, обычно разнится. Меньше проиндексированных.
  • 1. Держим этот проиндексированный “максимум” в голове, как точка возможного порога на нынешнем/й этапе/”дате” для сайта конкурента.
  • Анализ прироста ссылочной массы, поиск разрывов, резких взлетов по графикам и прочего. Тут мы определяем допустимый диапазон “косяка” в продвижении.
  • Возможный анализ доменных зон, с которых идет простановка ссылок

Что понимается под качественной ссылкой?

Моя терминология.

Качественная ссылка, это та ссылка, после простановки которой, можно заметить прирост позиций в поисковых системах, яндекс или гугл. На протяжении от 2 до 8 недель.

Также есть фактор обработки ссылки в течении года, после обнаружения/индексации в гугл. На дистанции удобный фактор (накопление), но отдачу все хотят увидеть как можно быстрее.

Какие ссылки можно считать качественными?

Возвращаясь к примеру с ссылки профилей на HH.RU и bla-blachina.com . Главными факторами качества, тут будет выступать “Траст/жирность/обьем/размер/популярность ресурса/домена”.

Думаю тут очевидна польза ссылки c HH.RU, но почему?

Тут я делаю выводы от теорий.

  • Количество людей, которые заходят на сайт;
  • Количество людей, которые заходят на сайт из поиска;
  • Количество людей, которые заходят на сайт из социальных сетей;
  • Количество сайтов, которые ссылаются на этот сайт;
  • Количество людей, которые переходят на этот сайт с других сайтов;
  • Количество “брендовых” заходов;
  • Количество брендовых упоминаний, которые в дальнейшем ведут к переходу на этот сайт, ввод в поисковую систему, возвращение к этой статье где была надпись о нем.
  • Количество людей/групп, которые ссылаются на сайт из социальных сетей
  • Величина посещений, ссылок, на данном отрезке времени существования сайта, возрастает ли его популярность, или убывает;
  • Насколько сайт удовлетворяет поисковую систему, нужен ли контент сайта выдаче.

Все эти теории полезны, но тут еще есть:

  • Вероятность перехода пользователя, по ссылке.
  • Фактические переходы пользователей по ссылке, в соотношении с вероятностной.

Формула весов страниц в интернете, это 1/n, где n - количество документов во всем интернете, получается что-то вроде “0.0000000000000000000000000001” - это изначальная точка “веса” любой страницы в интернете.

Одна ссылка на странице, включая ссылки интерфейса, внутренних страниц сайта, делят это число еще. 1/n = a (а, условно). p - точный вес ссылки.

p = a/k (где к-количество страниц, документов на который ссылается документ).

Итого получаем 0.0000000000000000000000000001/k = формульный, абстрактный вес, который получает ваша страница (при этом на вашей странице еще есть ссылки).

Все ли так плохо?

Нет, надо понимать, что все документы в интернете, находятся в точно таком же положении что и ваша страница. В такой же формуле, в таком же делении веса.

Со временем количество документов в интернете, увеличивается, уменьшается. Поэтому сайт надо развивать, чтобы не отставать в общей тенденции. (Это уже моя личная теоретизация)

Почему? - потому что интернет это огромные кластеры страниц-документов, так или иначе взаимосвязанных между собой, веса постоянно перераспределяются, перестраиваются, длинные цепи весов как резко возникают, так и обрываются.

Под развивать, я здесь понимаю, добавлять новые страницы, закупать ссылочное, улучшать User Experience и прочее.

Мы не знаем на каком этапе находится краулер поисковой системы. Какие связи выстроены, а какие нет, поэтому в работе ссылочной массы происходит много неточностей и случайностей. Мы можем думать, что должно работать так, и результаты должны быть тогда-то, но их нет.

О каких случайностях я говорю?

1. Под ссылочной связкой, я понимаю ссылочную цепь “кластеров страниц”. Она может быть как четко-последовательной, так и случайной.

- Например, сайт никогда не ссылался на чужие сайты, весь вес хранил в себе, но тут решил поставить ссылку на какой-то домен. Может быть такое, что из-за упоминания авторитетного сайта, вес сайта начал прибавляться (иные факторы)? - может, а может быть и наоборот. Влияет ли это в конечном итоге на нашу проставленную ссылку - да, влияет, в зависимости от ряда факторов, которые определила ПС. В худшую или в лучшую сторону, не известно.

- Разработчики сайта создали страницу, которая вышла в топ, путь до “вашей” страницы сократился, они сослались на другой материал, который быстрее ведет до вашей страницы, где проставлена ссылка на ваш сайт.

- Тоже самое возможно и в рамках внешнего сайта, внешний сайт сослался на старый материал этого сайта, и ссылочный вес пошел “снизу-вверх”, и этот вес отрекошетил на страницу, с нашим материалом.

2. Случайная цепь “эхо” мертвых сайтов. Я считаю, что существует возможный ссылочный вес от доменов, которые уже умерли, в т.ч от страниц, которых не существует, эти веса хранятся где-то в буфере у пс (проводил свои исследования, например, сохранение ИКС у не-зарегистрированных доменов). Возможно ли то, что эти данные не учитывались, и резко начали учитываться? - да. Возможно ли то, что эти данные учитывались, и перестали учитываться - да.

3. Также внешний сайт может терять свои веса по иным факторам - переспам, переоптимизация, баны ркн, фильтры - санкции могут вести к ухудшению какого-то фактора, который влияет на доверие к сайту, а от этого уже может идти к ссылочным весам сайта.

4. Целый кластер сайтов может утерять свои веса - например, на них ссылался общий сайт, а на него наложили фильтр, ркн забанил и прочее - произошел перерасчет. Завтра википедию забанят, будет перерасчет весов, каким образом это будет работать, не известно.

5. Раздел/страница/категория конкретного сайта может утерять вес, например у ПС цифры поедут и он вес отдаст странице с тегами, а не лонгриду на 30к знаков.

Включая то, что я написал выше, можно представить еще ситуации, когда ссылочные веса перестраиваются. Ссылочная цепь может быть как прочная, так и слабая, она как бы есть, но она работает в моменте, и наоборот, она может быть очень прочная, и работать долго.

Так зачем же нужно ссылочное?

Для начала надо взять в расчет иные факторы оптимизации страниц сайта, которым тоже наделяется вес ПС, относительно качества: тайтл, дескрипшн, ui/ux, общее наполнение сайта, соответствие релевантности других страниц сайта.

Если наглядно, то: (цифры примерные)

  • тайтл = 0.1
  • дескрипшн = 0.1
  • ui/ux = 0.055
  • общее наполнение сайта = 0.22
  • соответствие релевантности других страниц сайта = 0.33
  • релевантность данной страницы = 0.33

Из этого складывается вес страницы косвенными, иными факторами, только разработчики знают сколько их, и тут седьмым фактором выскакивает ссылочное.

  • формульный, абстрактный, изначальный вес = 0.0000000000000000000000000001
  • формульный, абстрактный вес с простановкой ссылок = 0.0000001

Тут я говорю о том, что мы ссылочное используем как дополнительный фактор набора веса, в совокупности к этому, ссылочный вес, который приходит на ваш сайт распространяется в дальнейшем по всем страницам сайта, на которые вы ссылаетесь.

Т.е простановкой одной ссылки, вы можете прокачать весь ваш сайт как сразу, так и в дальнейшем, при перерасчетах поисковых систем.

Возможно ли то, что если мы поставим ссылку на каком-нибудь “трастовом” сайте, то “формульный, абстрактный вес с простановкой ссылок = 0.5”, и ссылка сработает уже послезавтра, да, возможно, у меня были такие примеры, позиции росли как на дрожжах, но потом был закономерный спад.

Итого рел. страницы = 1.635 (на основании придуманных чисел выше).

Итого идет сумма факторов качества страницы, в т.ч косвенных, ссылочный вес, это вариант повышения рейтинга страницы в выдаче, среди конкурентов.

Представим, что мы получили 2-3 позицию в выдаче, как получить первую? - дальше работать над рейтингом данной “страницы/всего сайта”, какой рейтинг у первого места мы понятия не имеем, можем только предполагать. Например 1.8, значит нам надо еще поднять 0.135/0.136.

Так какая же нужна стратегия закупа ссылок?

Мы посмотрели ссылочную массу конкурентов, и имеем:

  • Ссылочный прирост - по дням, месяцам;
  • Максимальный ссылочный всплеск;
  • Общее количество доменов на сайт;
  • Какие ссылки проставлены у конкурентов;
  • Какие анкоры они используют;
  • Соотношение анкорных к безанкорным.

В общем смотрим среднее количество проставленных ссылок у конкурентов, также берем “точку проиндексированного максимума”, тут надо найти максимум, и среднее, что у них проставлено/закуплено.

Смотрим на наш бюджет и решаем, сколько будем ставить в среднем в мес. 10-15-20-50 - в зависимости от сложности тематики.

Это не важно, если мы будем брать плохие ссылки.

Главная идея здесь заключается в том, чтобы искать те сайты, и те “лучшие” доноры, которые могут дать максимальный потенциальный вес вашему сайту. Т.е даже если у конкурентов будет 500 ссылок, а ваш бюджет позволяет ставить только 5, то ставьте 5, но регулярно, и качественные ссылки.

Если вкратце, то под качеством - те ссылки, которые будут давать вес, включая второстепенный вес:

  • Прирост ссылочной массы этого сайта (vc.ru отличный пример);
  • Прирост контента сайта (vc.ru);
  • Пользователи на сайте - вероятность захода, вероятность перехода, сами переходы;
  • Прочие факторы, связанные с различными вероятностями, заходами, переходами, гео-положением, тематической привязкой - из одного вытекает другое. Например, пользователь, который перейдет на ваш авто-сайт, с тематичным интересом в авто, и ПС знает его интерес, то такой переход даст больше веса этой странице, это левый, маловероятностный фактор, но который может сработать.

Лучше поставить 1 ссылку, но качественную - имеющую сильную ссылочную/косвенную связь, которая будет вам передаваться, чем 50 ссылок, которые почти ее не имеют.

50 ссылок могут быстро “потухнуть”, так и не начав передавать вес.

Вторая идея заключается в том, чтобы ставить “много” таких ссылок, для того, чтобы при перерасчете весов сайтов, а также фоновых весов, на которые владельцы влиять не могут, другие сайты могли компенсировать этот вес для вас, т.е должна появиться ссылочная устойчивость, конечно есть эхо, но оно будет рассеиваться, при этом вы регулярно создаете еще такие ссылки, компенсируя уходящее эхо, поврежденного сайта.

Суть еще в том, что вы не можете знать какой сайт пострадал, если постоянно не мониторите их позиции, активность в сети и прочее, тут просто работа идет на “верность/регулярность” качества.

Также нужно понимать, что по разным причинам, в том числе “хорошие” ссылки не будут индексироваться, учитываться, поэтому регулярность простановки качественных ссылок - это безопасность от постоянных перерасчетов формул/соотношений поисковых систем.

Отсюда и идут все кейсы, когда кто-то там, где-то там разместил 1-2 ссылки, и сайт полетел, и об этом пишет, только работу останавливать на этом не надо, сайт просядет, надо продолжать.

Резюмируя

Заморачивайтесь над поиском качественных ссылок, а на гс`ы не тратьте время 🤪.

(Старался не писать общую теорию, которой пруд-пруди в интернете, общая логика думаю понятна.)

77
реклама
разместить
17 комментариев

Ну если взять логику ссылок, то становиться еще проще. Ссылка - это своего рода рекомендация. Если Вы рекомендуете сайт, а на него не переходят по этой ссылке, то и веса она будет передавать с гулькин нос. Чем больше кликают по ссылке, тем больше вес ее передается. Поисковики таким образом считают, что там интересная информация, которую стоит чаще показывать пользователям. Точка.
Все эти прогоны по профилям и мертвым сайтам полная чушь, которая если работает, то по той формуле, которую Вы написали 1 к 1 трлн.
Рассказываю, как это наглядно происходит. Ставим ссылку на очень авторитетном сайте с бешенным трафиком (например, Википедия). Чтоб она осталась там, нужна эксклюзивная и достоверная информация. Не просто в источниках поставить, где 100 ссылок, а к примеру там, где перечисляются официальные сайты. Клики, авторитетный сайт, и максимальный вес. У меня было так, что Википедия была ниже моей информация (моя 1, вики 2), хотя на Вики больше и статья, и вес. Почему? Вот тут включился ПФ. Люди посчитали, что у меня интересней. Вики посчитал, что информация эксклюзивная (одобрил модератор). Все, собираю трафик по ВЧ.
Автор в принципе все это и написал, только очень удлиненно.

2

Нет никаких доказательств того, что "чем больше кликают по ссылке, тем больше вес ее передается". Это всё домыслы, не подтверждённые ничем.

2

Для меня единственной пузомеркой является та, которую не возможно накрутить, а если возможно ее накрутить, то она все равно будет говорить о качестве сайта. К пузомеркам которые можно накрутить, но они не дают пользы сайту это посещаемость и икс, может быть посещаемость большой (накрученной) но при этом сайт моет быть мертв, также много сайтов видел с большим икс, но также пустышки.

А вот как определить пустышка сайт или нет? конечно же по семантике и по охвату, если у сайта огромный охват по ключам и хорошие позиции, в данный момент он точно силен, он точно любим поисковиками, я имею ввиду тысячи ключей и многие из них в топе, это говорит о том что сайт точно получает трафик и даже если икс не так высок, все равно сайт это и есть суть сайта, иметь хороший охват и видимость по ключам, так что для меня только это является критерием качества и именно этот параметр я хочу видеть и на своем сайте, поэтому с таких и покупаю.

Отдельно можно посмотреть на динамику, если охват падает стабильно, то в перспективе сайт может стать пустышкой.Также многие смотрят только на количество входящих ссылок и на их качество, но есть сайты у которых очень много ссылок входящих и при этом позиций по ключам нет, это как минимум говорит о том что донору такая большая ссылочная масса не приносит пользу, а значит и акцептору польза тоже сомнительна, хотя для гугла может что то и будет, но мне гадать нет желания и я покупаю все же с тех у кого даже если ссылок и маловато, но польза все же есть и охваты и сам донор значит однозначно качественный.

Остается вопрос если видимость накручена и охват по ключам накручен, но опять же, я говорю о донорах где охват большой, а значит что как минимум проработана семантика и накручивать такое количество ключей на доноре нужно очень качественно, даже если сайт в этот момент крутиться, он как минимум имеет охваты и является хорошо продвинутым. А по динамике опять же можно посмотреть стабильность за приличный период и это не будет простая пустышка, как минимум хорошо проработанный сайт с качественным пф.

1

Да, хороший вывод 👍.
Берем список сайтов с биржи, смотрим выгрузки позиций, трафика, охвата семантики по каждому, выбираем лучшие.
Возьму на заметку.
Да, скорее всего по каждому из них уже роботы ПС пробежались, и продолжат бегать в перерасчетах и прочем.

Спасибо. Было интересно

1