База SEO + ссылки. Рекомендации по построению ссылочного
Домашнее задание №1
- выгрузите ссылочное со своего сайта откуда только можете — панели вебмастеров Яндекс и Google, всех доступных вам сервисов (ahrefs, Semrush и др.);
- пробейте на индексацию в Rush Analytics (промо со скидкой для новых пользователей «SEOsekretiki» 😉);
- определяете по своим критериям (или по материалу моего выступления выше) ссылки — хорошие или плохие;
- все не проиндексированное хорошее ссылочное отправляем и удерживаем в индексе.
- плохое отклоняете в GDL.
Отпишите в комментариях, все ли получилось и с какими трудностями столкнулись в процессе. Очень интересно узнать.
Ну, и завершая, эту цепочку — мы определились с текущим ссылочным. Далее, добываем или покупаем новое. Какие есть рекомендации по покупке? Отбираем доноров:
- если донор по нашей теме — смотрим на видимость по вашему ядру;
- смотрим на ранжирование — есть ли тренд роста по количеству ключевых фраз и органическому трафику, в последнюю очередь смотрим на ссылочное.
Подходы у всех разные, кто-то сразу ориентируется на ссылочное, так как его только это и интересует. Я же считаю, что сначала нужно исключить все те домены, которые вообще никак не могут ранжироваться, т.к. это один из явных признаков того, что домен может быть под санкциями.
Домашнее задание №2
Еще один вид работ на добычу, для закрепления материала по добыче разных типов ссылок:
- возьмите ссылочные пересечения у конкурентов по Ahrefs или Semrush;
- посмотрите, что есть в ссылках у конкурентов, но нет у вас и постарайтесь продублировать хорошие ссылки.
Скорее всего, вы найдете много интересных вариантов и типов ссылок. Попытайтесь не только добыть эти же ссылки, но и с таким же типом. Например, нашли ссылочку с сайта-конструктора, возьмите другие конструкторы и отстройте ссылочное еще и оттуда.
Ценнее всего те ссылки, которые трудно достать.
Нюанс, ссылки, которые труднее всего достать, ценятся больше всего и имеют более приятный результат. Вообще, ссылочный процесс, это постоянная работа:
- Важно поддерживать все то, что сделали ранее — поддерживаем контентом, уровнями ссылок дропы и новореги.
- Ставим ссылки на ссылки. Для 3-го и выше уровней ссылок можно использовать полуавтомат, например, Xrumer. Все это ссылочное, ко всему прочему, еще и отлично поддерживает индексацию.
Если обобщить, то в Google, как и раньше, хорошо работают две вещи — это контент и ссылки. Само собой нужен фундамент в виде здорового бизнеса, а также связка всех базовых технических нюансов, про которые я до этого говорил. Это мы говорим, в основном, про коммерцию. Понятно, что в магазинах, часто решает ассортимент и цены.
Что дальше?
В целом, то что практики отмечали в работе до утечки данных из Google, линкбилдинг с аутричем, дропами — это все хорошо отрабатывает. Те, кто работали всё это уже знали, но тем не менее, есть интересности. На моем Ютуб-канале вышел ролик по теме утечке по алгоритмам Google, конкретно, по ссылочной теме, поэтому рекомендую глянуть это видео.
Фишки
Дальше собрал список из интересных фишек, которыми хотел бы поделиться с вами.
Первая фишка. При работе со ссылочным, можно ориентироваться не только на внешнюю историю, но и на внутреннюю. Каким образом?
Например, отбираем прокаченное внутреннее ссылочное у поднятых дропов, чтобы с них проставиться на ваш проект. В сапе можно закупать ссылки с разных страниц одного и того же донора, если на эти страницы много ссылок внутри их же сайта.
Проще в работе использовать покупное с сапы, но приятнее реализовывать подобное с прокаченных внутренних страниц дроп-доменов. Где найти прокаченные внутренние страницы? Есть готовые решения, например, в Ahrefs — это отчет по внутренним ссылкам любого донора.
Вторая фишка. Закупаем ссылочное по поисковой выдаче, иногда, и с ваших же конкурентов. Если вдруг не получилось закупиться, то в аутрич по этим сайтам я не очень верю, так как всё будет сводиться к получению медиакита у крупняков в информационке. Остальным, реальным конкурентам, из коммерции, о вас писать никому не нужно.
В таком случае, мне нравится подход с дропами, чтобы получать ссылки с конкурентов через цепочки: есть ссылки с конкурентов на какие-то дропнутые сайты, вы можете найти эти свободные домены и забрать себе в сетку и оттуда ссылаться на ваш продвигаемый сайт. Как это сделать, я уже рассказывал на конференции Baltic Digital Days:
Почитайте, может быть узнаете что-то новое и интересное для себя.
Фишка №3 — оценка доноров. Обращаем внимание на ранжирование донора — это про ключи в топе и трафик. Отсеиваем все то, что под вирусами. Можно написать свой парсер для проверки по Safe Browsing у Яндекса и у Google или воспользоваться готовым инструментом, например, таким как Checktrust.
У нас еще есть скрипт, который выпаршивает бесплатные данные из ahrefs:
Обычная автоматизация через BAS, но не многие залезают в этот источник. Понятно, что эти данные есть в сервисах по подбору дропов (mydrop, например), но дело в том, что список дропов у вас может быть свой.
Далее, про экономию времени. Почему надо считать купленные ссылки и количество дропов в cетках у конкурентов? Это нужно для того, чтобы понимать динамику и объем того, что нам предстоит сделать. Я считаю, что лучше не углубляться в этот процесс. Опять же, умные ребята вам не покажут всего того, что сделали. Лучше, это время посвятить на простановку ссылок, как раз, в рамках ссылочной стратегии, чтобы попытаться скопировать часть успешных ссылок, особенно, у молодых конкурентов.
Фишка №4: ловим разные данные по дропам
В сервисах сбора данных по дропающимся доменам, могут отличаться данные (с другими сервисами), например, в mydrop некоторые данные подтягиваются из Similarweb:
Но можно перепроверять эту информацию по другим сервисам. При этом, видно, что язык в сервисе указан некорректный (указана страна США, хотя, по факту, трафик идет по русскоязычным запросам):
Думаю, это хороший намёк для тех, кто охотится на дропы, пытаясь достать домены с трафиком или с приятным для вас ссылочным. Многие ориентируются только на одни данные, когда можно подцепить интересное по другим источникам.
Фишка №5: палим историю домена
Раньше в ахрефсе был отчет по движениям ключей, где можно было глянуть историю, по каким ключам ранжировался сайт ранее.
В кейсо есть похожий отчет, называется «Потерянные фразы»:
Отчет не группирует фразы по месяцам, но в любом случае, уже есть хоть какая-то информация по истории запросов в ранжировании с осени 2023 года.
Полезная функция, когда нет копий в веб-архиве или другой информации о поднятиях домена.
Фишка №6: шаблон Looker Studio
Классный инструмент, найденный на просторах интернета. В бурже кто-то из коллег сделал и выкатил, за что ему большое спасибо. Есть отдельный пост на моем ТГ-канале про старый шаблон и вот этот новый. Можете перейти, почитать и сохранить себе, чтобы далее смогли применить в работе.
Крайне полезная штука, чтобы быстро находить свежие трендовые запросы в вашей текущей семантике проекта. Можно быстро отреагировать на случаи, когда средняя позиция проседает по странице, подправить и получить результаты. Плюс, отличный инструмент, чтобы расширять анкор-лист у страниц новыми запросами. Ну, и банально, расширить ежемесячные отчеты. Мы, например, добавляем отчеты о средней позиции и распределение показов нашего сайта по страницам на поисковой выдаче, так виден тренд — позитивный или негативный.
Фишка №7: антидетект-браузер
Опять же, все антидетекты работают по-разному и везде нужен баланс, но при работе с дроп-доменами дополнительная приватность не будет лишней. Для дополнительной подстраховки можно использовать браузеры типа «Дельфина» или аналоги. На самом деле, необязательно настолько сильно заморачиваться.
Но, можно задавать все настройки железа, само собой, со сменой прокси:
Например, Dolphin позволяет использовать до 10 профилей бесплатно. Создаете профиль, задаете настройки и списком прокси и запускаете в работу. Можно работать из одного окна по большому количеству профилей сразу на разных устройствах (фингерпринты). Импортируем готовые куки в онлайне и все готово для работы. Тесты отпечатков проходят проверку нормально.
Я этот софт использую больше, для распределения аккаунтов, очень удобно получается. Настройки несложные, да и сама программа, тоже простая для освоения.
Бонус: ссылки с ТГ-каналов
Провели отдельное исследование. Мне кажется, будет многим полезно, особенно тем ребятам, которые занимаются ссылочным.
В качестве примера скриншот:
Вкратце, суть исследования: взяли небольшую выборку и проверили попадание ссылок в GSC, ahrefs и другие анализаторы. Также, изучили трафик из ТГ по Аналитиксу и Метрике. По итогу, было понятно, что это все дело индексируется, попадает в GSC и анализаторы, плюс хорошо ранжируется, особенно, если идет речь о брендовых запросах и информационке, это тоже было очевидно. Было много интересных нюансов, например, по индексации страниц с GET-параметрами, отдельных постов и комментариев под постами, а также, про влияние JavaScript на рендеринг этих страниц.
Итог
Все, что тут расписано может быть полезно не только специалистам, но и владельцам бизнеса, однако, не у всех есть время заниматься подобными вопросами, поэтому, если у вас есть бюджеты на SEO, то можете записаться на бесплатную консультацию со мной. Пишите в личку, пообщаемся, обсудим ваш проект!
Спасибо за то, что прочитали, надеюсь материал был полезен для вас!
ключевые аспекты работы с контентом и техническими элементами, что может быть полезно как новичкам, так и опытным специалистам в сфере маркетинга
Да, по сути, база и немного фишек для чуть более опытных спецов. 👍🏻