{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Как работает ссылочная масса. Зачем проставлять ссылки? Какие сайты брать?

Ссылочное ранжирование, это огромная динамическая/стохастическая модель, которая постоянно перерасчитывается/перераспределяется, без нашего ведома.

Зачем нужен ссылочный анализ?

Ссылочный анализ, это прежде всего просмотр “пузомерок”, таких как ahrefs, serpstat, и прочих.

По моему мнению, он нужен для:

  • Определить “максимальный порог”, возможный “взрыв” ссылочной массы для вашего проекта;
  • Посмотреть ссылочную массу конкурентов, по возможности убрать мусор, и найти стоящие ссылки.
  • Также надо будет понять, на каких сайтах легко проставить ссылки, какие будут не лишними. Например, на каком-нибудь сайте с профилями, bla-blachina.com будет легко проставить ссылку, но будет ли от нее толк. А вот поставить ссылку с профиля hh.ru, уже другой вариант, об этом напишу дальше.
  • Под мусором, понимаются сайты:
  • 1. Слишком низкие “пузомерки”, большие разрывы UR и DR, хотя это и не является окончательным показателем;
  • 2. Ссылки стоят не в области основного контента сайта, где-нибудь сбоку, написанными белым шрифтом на белом фоне;
  • 3. Те сайты, на которых можно легко поставить ссылку, обратившись на кворк, простановкой программ, таких как Хрумер, ГСА. Таким “мусором” легко заняться, они не стоят времени для ссылочного анализа;
  • 4. В т.ч для возможной выкачки базы, не всегда удается повторно сделать простановку ссылок по тем сайтам, какие у конкурентов, ввиду возможной-повторной фильтрации сайта, владельцами. Созданием новых фильтров и прочего;

    Хотя достать 1-2 ссылки из базы в 4000 строк неплохо, по-крайней мере на продвижении в худшую сторону это не скажется.

  • Плюс ко всему, не надо забывать, что также надо смотреть количество проиндексированных страниц, которые ссылаются на конкурента, соотношение межу найденными в Ахрефс ссылками, и кол-вом проиндексированным гуглом, обычно разнится. Меньше проиндексированных.
  • 1. Держим этот проиндексированный “максимум” в голове, как точка возможного порога на нынешнем/й этапе/”дате” для сайта конкурента.
  • Анализ прироста ссылочной массы, поиск разрывов, резких взлетов по графикам и прочего. Тут мы определяем допустимый диапазон “косяка” в продвижении.
  • Возможный анализ доменных зон, с которых идет простановка ссылок

Что понимается под качественной ссылкой?

Моя терминология.

Качественная ссылка, это та ссылка, после простановки которой, можно заметить прирост позиций в поисковых системах, яндекс или гугл. На протяжении от 2 до 8 недель.

Также есть фактор обработки ссылки в течении года, после обнаружения/индексации в гугл. На дистанции удобный фактор (накопление), но отдачу все хотят увидеть как можно быстрее.

Какие ссылки можно считать качественными?

Возвращаясь к примеру с ссылки профилей на HH.RU и bla-blachina.com . Главными факторами качества, тут будет выступать “Траст/жирность/обьем/размер/популярность ресурса/домена”.

Думаю тут очевидна польза ссылки c HH.RU, но почему?

Тут я делаю выводы от теорий.

  • Количество людей, которые заходят на сайт;
  • Количество людей, которые заходят на сайт из поиска;
  • Количество людей, которые заходят на сайт из социальных сетей;
  • Количество сайтов, которые ссылаются на этот сайт;
  • Количество людей, которые переходят на этот сайт с других сайтов;
  • Количество “брендовых” заходов;
  • Количество брендовых упоминаний, которые в дальнейшем ведут к переходу на этот сайт, ввод в поисковую систему, возвращение к этой статье где была надпись о нем.
  • Количество людей/групп, которые ссылаются на сайт из социальных сетей
  • Величина посещений, ссылок, на данном отрезке времени существования сайта, возрастает ли его популярность, или убывает;
  • Насколько сайт удовлетворяет поисковую систему, нужен ли контент сайта выдаче.

Все эти теории полезны, но тут еще есть:

  • Вероятность перехода пользователя, по ссылке.
  • Фактические переходы пользователей по ссылке, в соотношении с вероятностной.

Формула весов страниц в интернете, это 1/n, где n - количество документов во всем интернете, получается что-то вроде “0.0000000000000000000000000001” - это изначальная точка “веса” любой страницы в интернете.

Одна ссылка на странице, включая ссылки интерфейса, внутренних страниц сайта, делят это число еще. 1/n = a (а, условно). p - точный вес ссылки.

p = a/k (где к-количество страниц, документов на который ссылается документ).

Итого получаем 0.0000000000000000000000000001/k = формульный, абстрактный вес, который получает ваша страница (при этом на вашей странице еще есть ссылки).

Все ли так плохо?

Нет, надо понимать, что все документы в интернете, находятся в точно таком же положении что и ваша страница. В такой же формуле, в таком же делении веса.

Со временем количество документов в интернете, увеличивается, уменьшается. Поэтому сайт надо развивать, чтобы не отставать в общей тенденции. (Это уже моя личная теоретизация)

Почему? - потому что интернет это огромные кластеры страниц-документов, так или иначе взаимосвязанных между собой, веса постоянно перераспределяются, перестраиваются, длинные цепи весов как резко возникают, так и обрываются.

Под развивать, я здесь понимаю, добавлять новые страницы, закупать ссылочное, улучшать User Experience и прочее.

Мы не знаем на каком этапе находится краулер поисковой системы. Какие связи выстроены, а какие нет, поэтому в работе ссылочной массы происходит много неточностей и случайностей. Мы можем думать, что должно работать так, и результаты должны быть тогда-то, но их нет.

О каких случайностях я говорю?

1. Под ссылочной связкой, я понимаю ссылочную цепь “кластеров страниц”. Она может быть как четко-последовательной, так и случайной.

- Например, сайт никогда не ссылался на чужие сайты, весь вес хранил в себе, но тут решил поставить ссылку на какой-то домен. Может быть такое, что из-за упоминания авторитетного сайта, вес сайта начал прибавляться (иные факторы)? - может, а может быть и наоборот. Влияет ли это в конечном итоге на нашу проставленную ссылку - да, влияет, в зависимости от ряда факторов, которые определила ПС. В худшую или в лучшую сторону, не известно.

- Разработчики сайта создали страницу, которая вышла в топ, путь до “вашей” страницы сократился, они сослались на другой материал, который быстрее ведет до вашей страницы, где проставлена ссылка на ваш сайт.

- Тоже самое возможно и в рамках внешнего сайта, внешний сайт сослался на старый материал этого сайта, и ссылочный вес пошел “снизу-вверх”, и этот вес отрекошетил на страницу, с нашим материалом.

2. Случайная цепь “эхо” мертвых сайтов. Я считаю, что существует возможный ссылочный вес от доменов, которые уже умерли, в т.ч от страниц, которых не существует, эти веса хранятся где-то в буфере у пс (проводил свои исследования, например, сохранение ИКС у не-зарегистрированных доменов). Возможно ли то, что эти данные не учитывались, и резко начали учитываться? - да. Возможно ли то, что эти данные учитывались, и перестали учитываться - да.

3. Также внешний сайт может терять свои веса по иным факторам - переспам, переоптимизация, баны ркн, фильтры - санкции могут вести к ухудшению какого-то фактора, который влияет на доверие к сайту, а от этого уже может идти к ссылочным весам сайта.

4. Целый кластер сайтов может утерять свои веса - например, на них ссылался общий сайт, а на него наложили фильтр, ркн забанил и прочее - произошел перерасчет. Завтра википедию забанят, будет перерасчет весов, каким образом это будет работать, не известно.

5. Раздел/страница/категория конкретного сайта может утерять вес, например у ПС цифры поедут и он вес отдаст странице с тегами, а не лонгриду на 30к знаков.

Включая то, что я написал выше, можно представить еще ситуации, когда ссылочные веса перестраиваются. Ссылочная цепь может быть как прочная, так и слабая, она как бы есть, но она работает в моменте, и наоборот, она может быть очень прочная, и работать долго.

Так зачем же нужно ссылочное?

Для начала надо взять в расчет иные факторы оптимизации страниц сайта, которым тоже наделяется вес ПС, относительно качества: тайтл, дескрипшн, ui/ux, общее наполнение сайта, соответствие релевантности других страниц сайта.

Если наглядно, то: (цифры примерные)

  • тайтл = 0.1
  • дескрипшн = 0.1
  • ui/ux = 0.055
  • общее наполнение сайта = 0.22
  • соответствие релевантности других страниц сайта = 0.33
  • релевантность данной страницы = 0.33

Из этого складывается вес страницы косвенными, иными факторами, только разработчики знают сколько их, и тут седьмым фактором выскакивает ссылочное.

  • формульный, абстрактный, изначальный вес = 0.0000000000000000000000000001
  • формульный, абстрактный вес с простановкой ссылок = 0.0000001

Тут я говорю о том, что мы ссылочное используем как дополнительный фактор набора веса, в совокупности к этому, ссылочный вес, который приходит на ваш сайт распространяется в дальнейшем по всем страницам сайта, на которые вы ссылаетесь.

Т.е простановкой одной ссылки, вы можете прокачать весь ваш сайт как сразу, так и в дальнейшем, при перерасчетах поисковых систем.

Возможно ли то, что если мы поставим ссылку на каком-нибудь “трастовом” сайте, то “формульный, абстрактный вес с простановкой ссылок = 0.5”, и ссылка сработает уже послезавтра, да, возможно, у меня были такие примеры, позиции росли как на дрожжах, но потом был закономерный спад.

Итого рел. страницы = 1.635 (на основании придуманных чисел выше).

Итого идет сумма факторов качества страницы, в т.ч косвенных, ссылочный вес, это вариант повышения рейтинга страницы в выдаче, среди конкурентов.

Представим, что мы получили 2-3 позицию в выдаче, как получить первую? - дальше работать над рейтингом данной “страницы/всего сайта”, какой рейтинг у первого места мы понятия не имеем, можем только предполагать. Например 1.8, значит нам надо еще поднять 0.135/0.136.

Так какая же нужна стратегия закупа ссылок?

Мы посмотрели ссылочную массу конкурентов, и имеем:

  • Ссылочный прирост - по дням, месяцам;
  • Максимальный ссылочный всплеск;
  • Общее количество доменов на сайт;
  • Какие ссылки проставлены у конкурентов;
  • Какие анкоры они используют;
  • Соотношение анкорных к безанкорным.

В общем смотрим среднее количество проставленных ссылок у конкурентов, также берем “точку проиндексированного максимума”, тут надо найти максимум, и среднее, что у них проставлено/закуплено.

Смотрим на наш бюджет и решаем, сколько будем ставить в среднем в мес. 10-15-20-50 - в зависимости от сложности тематики.

Это не важно, если мы будем брать плохие ссылки.

Главная идея здесь заключается в том, чтобы искать те сайты, и те “лучшие” доноры, которые могут дать максимальный потенциальный вес вашему сайту. Т.е даже если у конкурентов будет 500 ссылок, а ваш бюджет позволяет ставить только 5, то ставьте 5, но регулярно, и качественные ссылки.

Если вкратце, то под качеством - те ссылки, которые будут давать вес, включая второстепенный вес:

  • Прирост ссылочной массы этого сайта (vc.ru отличный пример);
  • Прирост контента сайта (vc.ru);
  • Пользователи на сайте - вероятность захода, вероятность перехода, сами переходы;
  • Прочие факторы, связанные с различными вероятностями, заходами, переходами, гео-положением, тематической привязкой - из одного вытекает другое. Например, пользователь, который перейдет на ваш авто-сайт, с тематичным интересом в авто, и ПС знает его интерес, то такой переход даст больше веса этой странице, это левый, маловероятностный фактор, но который может сработать.

Лучше поставить 1 ссылку, но качественную - имеющую сильную ссылочную/косвенную связь, которая будет вам передаваться, чем 50 ссылок, которые почти ее не имеют.

50 ссылок могут быстро “потухнуть”, так и не начав передавать вес.

Вторая идея заключается в том, чтобы ставить “много” таких ссылок, для того, чтобы при перерасчете весов сайтов, а также фоновых весов, на которые владельцы влиять не могут, другие сайты могли компенсировать этот вес для вас, т.е должна появиться ссылочная устойчивость, конечно есть эхо, но оно будет рассеиваться, при этом вы регулярно создаете еще такие ссылки, компенсируя уходящее эхо, поврежденного сайта.

Суть еще в том, что вы не можете знать какой сайт пострадал, если постоянно не мониторите их позиции, активность в сети и прочее, тут просто работа идет на “верность/регулярность” качества.

Также нужно понимать, что по разным причинам, в том числе “хорошие” ссылки не будут индексироваться, учитываться, поэтому регулярность простановки качественных ссылок - это безопасность от постоянных перерасчетов формул/соотношений поисковых систем.

Отсюда и идут все кейсы, когда кто-то там, где-то там разместил 1-2 ссылки, и сайт полетел, и об этом пишет, только работу останавливать на этом не надо, сайт просядет, надо продолжать.

Резюмируя

Заморачивайтесь над поиском качественных ссылок, а на гс`ы не тратьте время 🤪.

(Старался не писать общую теорию, которой пруд-пруди в интернете, общая логика думаю понятна.)

0
17 комментариев
Написать комментарий...
Александр Воловиков

Ну если взять логику ссылок, то становиться еще проще. Ссылка - это своего рода рекомендация. Если Вы рекомендуете сайт, а на него не переходят по этой ссылке, то и веса она будет передавать с гулькин нос. Чем больше кликают по ссылке, тем больше вес ее передается. Поисковики таким образом считают, что там интересная информация, которую стоит чаще показывать пользователям. Точка.
Все эти прогоны по профилям и мертвым сайтам полная чушь, которая если работает, то по той формуле, которую Вы написали 1 к 1 трлн.
Рассказываю, как это наглядно происходит. Ставим ссылку на очень авторитетном сайте с бешенным трафиком (например, Википедия). Чтоб она осталась там, нужна эксклюзивная и достоверная информация. Не просто в источниках поставить, где 100 ссылок, а к примеру там, где перечисляются официальные сайты. Клики, авторитетный сайт, и максимальный вес. У меня было так, что Википедия была ниже моей информация (моя 1, вики 2), хотя на Вики больше и статья, и вес. Почему? Вот тут включился ПФ. Люди посчитали, что у меня интересней. Вики посчитал, что информация эксклюзивная (одобрил модератор). Все, собираю трафик по ВЧ.
Автор в принципе все это и написал, только очень удлиненно.

Ответить
Развернуть ветку
Слегка Придурковатый

Нет никаких доказательств того, что "чем больше кликают по ссылке, тем больше вес ее передается". Это всё домыслы, не подтверждённые ничем.

Ответить
Развернуть ветку
Рустам Кагарманов

ссылки по которым переходят в разы лучше работают, но те по которым переходов очень мало или совсем нет это не гулькин нос, а вполне хорошие и рабочие ссылки.

Ответить
Развернуть ветку
Александр Воловиков

Открытой нет, но есть второстепенная. Открытую информацию такого плана нельзя говорить, иначе будет накрутка. А второстепенная - это формирование на сайте быстрых ссылок. Робот формирует их исходя из популярности и кликов. Поисковику нужно быстро и точно отвечать на вопрос, вот он и это делает. Он делает работу удобной и информативной.
Тут нужно понимать, что 1 млн. кликов и 1 млн. отказов вряд ли выведет статью в ТОП. Нужно максимум уделять контенту.

Ответить
Развернуть ветку
Виктор Петров

Есть, информация не секретная. Так работают PR и BR.
Другое дело, что пересчёты "весов" - дело не самое простое и не самое быстрое.

Ответить
Развернуть ветку
Артем Тарасенко
Автор

pr - page rank.
br - ?

Ответить
Развернуть ветку
Виктор Петров

Яндексово-бинговский browse rank. Примерно те же яйцы, но граф оценивается с учетом ПФ

Ответить
Развернуть ветку
Артем Тарасенко
Автор

Могу сказать по своему опыту, что учитываются, но в яндексе - в рамках внутри сайта.

Был тест: 1. Сайт - сделали линковку внутри контента страниц, примерно 3к ссылок, вручную 3 недели ставили, никакого эффекта, что в гугле, что в яндексе. При этом анкоры были разные - 3к разных анкоров, с полным покрытием семантики на страницу, на которую ссылались.

Тест 2. Я случайно в меню сайта, на все страницы, примерно 1-2к страниц, поставил ссылку на товар. Он из топ 20 до топ 1 за 3 дня вышел. Ссылка была в самом верху, на самом видном месте, если та простановка не сработала, а эта сработала, значит можно предположить, что из-за того, что люди на неё кликали, она резко выросла в выдаче.

Тест 3. Это уже внешний сайт. на snob.ru, опубликовали статью в ней была ссылка, был трафик с неё, весь сайт из-за одной такой ссылки в топ 8 встал по вч позициям, весь сайт за ним вырос. С контентом ничего не делали год-два точно.

А так да, вы правы. Нет никакой информации по этому поводу. Хотя все-таки существует вероятность перехода по ссылке

Ответить
Развернуть ветку
Рустам Кагарманов

Для меня единственной пузомеркой является та, которую не возможно накрутить, а если возможно ее накрутить, то она все равно будет говорить о качестве сайта. К пузомеркам которые можно накрутить, но они не дают пользы сайту это посещаемость и икс, может быть посещаемость большой (накрученной) но при этом сайт моет быть мертв, также много сайтов видел с большим икс, но также пустышки.

А вот как определить пустышка сайт или нет? конечно же по семантике и по охвату, если у сайта огромный охват по ключам и хорошие позиции, в данный момент он точно силен, он точно любим поисковиками, я имею ввиду тысячи ключей и многие из них в топе, это говорит о том что сайт точно получает трафик и даже если икс не так высок, все равно сайт это и есть суть сайта, иметь хороший охват и видимость по ключам, так что для меня только это является критерием качества и именно этот параметр я хочу видеть и на своем сайте, поэтому с таких и покупаю.

Отдельно можно посмотреть на динамику, если охват падает стабильно, то в перспективе сайт может стать пустышкой.Также многие смотрят только на количество входящих ссылок и на их качество, но есть сайты у которых очень много ссылок входящих и при этом позиций по ключам нет, это как минимум говорит о том что донору такая большая ссылочная масса не приносит пользу, а значит и акцептору польза тоже сомнительна, хотя для гугла может что то и будет, но мне гадать нет желания и я покупаю все же с тех у кого даже если ссылок и маловато, но польза все же есть и охваты и сам донор значит однозначно качественный.

Остается вопрос если видимость накручена и охват по ключам накручен, но опять же, я говорю о донорах где охват большой, а значит что как минимум проработана семантика и накручивать такое количество ключей на доноре нужно очень качественно, даже если сайт в этот момент крутиться, он как минимум имеет охваты и является хорошо продвинутым. А по динамике опять же можно посмотреть стабильность за приличный период и это не будет простая пустышка, как минимум хорошо проработанный сайт с качественным пф.

Ответить
Развернуть ветку
Артем Тарасенко
Автор

Да, хороший вывод 👍.
Берем список сайтов с биржи, смотрим выгрузки позиций, трафика, охвата семантики по каждому, выбираем лучшие.
Возьму на заметку.
Да, скорее всего по каждому из них уже роботы ПС пробежались, и продолжат бегать в перерасчетах и прочем.

Ответить
Развернуть ветку
Рустам Кагарманов

трафик вообще не смотрю, я проводил сканирование по этим параметрам и в биржах многие сайты накручены и трафик судя по видимости такой как указан просто быть не может на таких сайтах, в итоге я для сортировки использую икс, что бы выгрузить топ 100 или топ 500 первых сайтов по определенному ценнику, далее уже собираю их видимость в поисковых системах, далее выбираю самые раскрученные в поисковиках сайты, причем стараюсь брать те, у кого и в гугле и в яндесе хороший охват и позиции, мало кто сможет накрутить такое, а даже если и сможет идет следующий этап где уже из этих жирых площадок я выбираю вручную те, у которых динамика охвата и позиций хорошая, либо стабильная, либо растет. Ссылочный профиль доноров вообще не смотрю если честно, для меня достаточно того что сайт хорошо раскручен в обоих пс, а значит пс считает его авторитетным и весомым и точно ему доверяет.

Насчет тематических доноров, тематику хорошо подходящую трудно найти, я ищу тематические страницы, где контент точно подходит по тематике продвигаемой страницы, далее смотрю также как описано выше параметры, но для меня тут достаточно что бы сайт был просто живой и имел охваты, не зацикливаюсь на больших значениях и динамике.

Конечно в идеале если был бы большой выбор, я бы смотрел еще и охват самих страниц, с которых покупаю ссылки, что бы сама страница донора имела позиции по тематичным ключам продвигаемой страницы, но такое редко можно найти и выбор итак зачастую не сильно большой.

Раскрученные страницы я обычно смотрю тогда, когда закупаю дорогие ссылки, там прям смотрю охват списка страниц донора и выбираю страницы с наибольшим охватом и хорошими позициями по ключам. Часто закупаю с таких страниц, у которых охват по сотням довольно жирных ключей и хорошие позиции по ним, такие страницы точно дадут хороший вес. Мое имхо.

Ответить
Развернуть ветку
Артем Тарасенко
Автор

Понял) Значит фильтруем по ИКС, далее уже смотрим динамику по обоим пс у сайта.

Ответить
Развернуть ветку
Рустам Кагарманов

сортирую по икс, так как все же что бы в первых 100 или 500 ( смотря сколько мне нужно собрать) были более раскрученные сайты, хотя понятно что и ниже будут некоторые сайты лучше чем те что собраны, но все же как то сортировать нужно, хотя при желании можно собрать вообще все площадки предлагаемые.

Ответить
Развернуть ветку
Рустам Кагарманов

я кстати сам пишу ботов, которые ходят по сервисам и по нужному мне списку страниц собирают охваты сайтов в гугл и яндекс, так что на выходе к этапу ручной выборки закупки уже у меня список только хороших сайтов. (хорошо раскрученных) я все же сторонник одного простого закона, закупай ссылки с таких сайтов, параметры которых ты хочешь видеть на своем сайте, для меня не важна куча ссылок, качественная ссылочная масса по версии какого то сервиса или формулы придуманной кем то там, я смотрю именно на результат, если у сайта будет крутая ссылочная масса, но при этом он будет плохо раскручен в поисковике, значит мне такой донор не подходит.

Ответить
Развернуть ветку
Артем Тарасенко
Автор

Какой-то фильтр стоит? Что только N-семантики в выдаче, только тогда мне в папку класть, или собираешь все подряд, потом просто фильтруешь в экселе по нужным тебе критериям?

Ответить
Развернуть ветку
Рустам Кагарманов

фильтра такого не видел в биржах по охвату, я после того как собрал первые 100 или 500 сайтов сортированных по икс, далее уже их мой бот чекает на охват по количеству ключей и видимость по тим ключам. Далее уже сортирую по большему охвату и просто иду сверху вниз руками проверяя площадки и закупая с тех что понравились. Да экселя для этого достаточно.

Ответить
Развернуть ветку
YouTube Streamer Junky

Спасибо. Было интересно

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
14 комментариев
Раскрывать всегда