Google Disavow Links — как отклонить «плохие» ссылки?

Всем привет!

Давайте я представлюсь и вкратце расскажу про себя.

Меня зовут Айрат Рахимзянов. В SEO я с 2011 года. У нас небольшое агентство. SEO основная услуга. Специализируемся мы на ссылочном. Помимо этого, оказываем услуги по контекстной рекламе, контенту и есть технический отдел для внедрения правок. Ну и ещё я автор Телеграмм-канала, который называется «SEO-секретики».

Вообще, данная статья, расшифровка моего выступления с конференции SEO Club SPB, которая состоялась 25-го ноября 2023 года.
Вообще, данная статья, расшифровка моего выступления с конференции SEO Club SPB, которая состоялась 25-го ноября 2023 года.

О чем расскажу?

Основная тема — это сервис Google Disavow Links (далее GDL). И ещё, по ходу буду охватывать всё, что может быть с этим связано.

Что такое GDL?

Неужели кто-то не знает, что такое GDL?
Я не знаю!
Я знаю, но не скажу!
Знаю, естественно.

Наверняка, многие из вас знают, что это за сервис, но на всякий случай напишу. GDL — это сервис Гугла, с помощью которого можно отклонять учет любого ссылочного. В этой статье я расскажу, как найти и отклонить именно плохое ссылочное (еще могут искать по запросу: удалить ссылки в Google).

Google Disavow Links — как отклонить «плохие» ссылки?
Вот так выглядит сам сервис изнутри.
Вот так выглядит сам сервис изнутри.

Методология

На первый взгляд, методология определения плохих доноров может показаться сложной, но на самом деле, все просто. Единственный момент, как и многое в SEO – это нюансы. Они могут появиться по ходу, но разберем все популярные случаи (например, подозрение на токсичность доноров и т.п.). Разберем полный алгоритм действий по шагам. По сути, я перескажу нашу инструкцию, по которой мы проводим данную работу у себя внутри SEO-агентства (нативочка).

Вообще, файлов по этой задаче у нас сразу три:

  • Первый файл. Это сам отчет для клиента. Мы всегда делаем отчеты, даже если ничего не нужно внедрять, чтобы клиент понимал, что мы проверили какой-то момент и отчитались об этом в обязательном порядке.
  • Второй файл. Это рабочий файл специалиста, где как раз большее количество времени спецы проводят.
  • И третий файл. Это текстовый файл, который будет загружаться в сам GDL.

Допустим, есть проект в работе. Предполагаемый средний срок жизни данного клиента 1,5 года. Значит в течение этого времени, мы как специалисты можем поддерживать ссылочный профиль данного проекта в чистоте и порядке. Такая гигиена ссылочного профиля получается. Мы все как специалисты, думаю, уже начали привыкать к обновлениям раз в 3-4 месяца (я имею ввиду коп-апы и прочие спам апдейты в Google), когда максимально трясет выдачу и те сайты, которые либо агрессивно качали ссылочное или как-то необдуманно – начинают проседать, именно поэтому важно формировать приятное ссылочное, устойчивое к обновлениям алгоритмов в Google.

Готовим рабочий файл

Итак, приступаем к созданию файла. Создаем файл в Гугл таблицах или в старом любимом Excel, где и будем сводить всю информацию и далее принимать решение по донорам.

Создали файлик и заполнили базовые данные, такие как:

  • Месяц проведения задачи (мы ориентируемся на отчетные даты проекта в битриксе);
  • Автор — кто исполняет эту задачу;
  • Комментарий — он нужен для того, чтобы понимать, почему донора посчитали плохим.
  • И домен — нужен для последующего добавления в GDL (Disavow Link).
Вот так выглядит рабочий файл для SEO-специалиста.
Вот так выглядит рабочий файл для SEO-специалиста.

Выгрузка ссылок

Файлик рабочий создали. Теперь нужно получить данные по ссылкам. Был базовый набор данных до этого, теперь к ним ещё добавляем оставшиеся нужные данные. Выгружаем данные по входящему ссылочному анализируемого сайта и добавляем их в наш рабочий файл как на предыдущем скриншоте. Считаем сервисом по умолчанию — ссылочный анализатор это ahrefs.com (далее ахрефс) и параллельно теперь semrush.com (далее семраш). Можно использовать любой другой сервис, необязательно брать ахрефс.

Минутка ненависти к ахрефсу. Жаль, что в сервисе сокращаются полезные отчёты (например, отчет по изменению ключей или по разбросу позиций в органике). Историю с лимитами и принудительным переключением с Legacy тарифов знаете сами. Думаю, что это не совсем долгосрочная стратегия сохранения пользователей и я, надеюсь, что такие игроки как keys.so догонят подобных гигантов в ускоренном темпе.

Google Disavow Links — как отклонить «плохие» ссылки?

Но тем не менее, с ахрефсом всё еще сильно проще. Плюс чаще всего, база гораздо шире чем у семраша или серпстата. С ахрефсом получается такой упрощенный вариант, но если есть доступ к другим сервисам, то достаем ссылочное отовсюду, откуда только можем, чтобы помимо анализа всех доноров, мы еще смогли дальше по плану, выполнить другие подготовительные ссылочные работы, такие как, склейка битого ссылочного, например, или пробив в индекс хороших доноров, которые на момент анализа почему-то не в индексе. Другие подготовительные ссылочные работы были перечислены в этой статье.

Выгрузка из всех сервисов

Если брать все сервисы, то какие нам нужны? Сначала рассматриваем бесплатные и те к которым есть доступы у всех. Имеются ввиду вебмастера. Правда, Яндекс.Вебмастер сразу пропускаем, так как он до сих пор показывает только информацию о битых внешних ссылках, поэтому из вебмастеров берем только данные из Google Search Console.

Такие вот «полезные» данные из панели вебмастера Яндекса.
Такие вот «полезные» данные из панели вебмастера Яндекса.

Также берем информацию из самой поисковой выдачи. Я не совсем понимаю, почему именно этот источник часто пропускают, но он доступен для всех и там очень много полезных данных, поэтому выпаршиваем как вам удобно поисковую выдачу, чтобы достать упоминания о компании, например. Можете дополнительно далее валидировать эти урлы на наличие в них ссылок на продвигаемый сайт через любой парсер, например, Screaming Frog SEO Spider. Или же через А-парсер, где можно задать в редакторе два парсера поочередно: сначала выпаршиваем выдачу, а потом сразу пробиваем наличие ссылки.

Далее подключаем платные варианты

В таблице представлен наш рейтинг:

Google Disavow Links — как отклонить «плохие» ссылки?

Кейсо с выкатыванием нового отчета по ссылкам здорово зашёл. Дополнительная норм база. SEO Power Suite довольно громоздкая и неудобная, поэтому тут по желанию. На очереди по тестам еще базы из Мегаиндекса и Серпстата. В принципе, этого уже хватает, но если не хватает, то есть еще moz.com и любые другие анализаторы, в том числе бесплатные, openlinkprofiler.org особенно бы выделил. Можете перейти по ссылке и сохранить себе полный список этих анализаторов. Пригодятся при анализе конкурентов и составлении ссылочной стратегии.

В таблице представлена информация по уникальным найденным доменам. То есть, в нашем конкретном случае, большая часть уникальных доменов находится именно по ахрефсу. Сейчас это так и очень хочется, чтобы когда-нибудь ситуация по полноте баз изменилась. На опыте заметил, что такое распределение не является эталонным и процент уникальности будет меняться от проекта к проекту.

Таким образом, полнота данных более-менее приемлемая и точная за счет охвата большого количества сервисов в момент анализа.

Далее всех доноров сводим в один список, чтобы удалить дубли. И теперь у нас есть всё ссылочное отовсюду, из всех возможных источников. Далее в рабо будем добавлять все недостающие данные по этим донорам, которые дальше разберем.

Заполняем столбец «Домен»

Заполняем данные по столбцу «Домен». Он нам необходим для того, чтобы при повторном анализе ссылочного профиля не тратить время на анализ доменов, которые уже были проанализированы ранее.

Google Disavow Links — как отклонить «плохие» ссылки?

Сравнение старых и новых доменов делаем через «Повторяющиеся значения» в Excel (для того, чтобы удалить дубли). Ну и еще сами домены будут нужны на последнем этапе, чтобы быстро выцепить плохих доноров и отправить их в Google Disavow Tool.

Для заполнения столбца Domain копируем в него данные по найденным урлам. Удаляем суффиксы, протоколы и всё, что идёт после слешей. Для этого идём по порядку и просто удаляем:

  • https
  • http
  • www.
  • /*

Данные действия нужны для того, чтобы привести домены к одному виду.

Анализ доноров

Теперь мы выгрузили отовсюду доноров. Домены в рабочем файле указали. Далее производим сам анализ доноров. В первичном отсеве ориентируемся на тайтлы, язык и анкоры. Используем вспомогательные параметры, особенно, если ссылок очень много, такие как: DR, трафик и прочее. Также можно фильтровать список по экзотическим доменным зонам или по маске урлов (например, при поиске определенного типа ссылок — допустим, ссылок из форумных профилей).

Это лишь часть параметров. Обычно, этого хватает. Дальше еще более полный список будет, но это уже больше для углубленного анализа.

Маркировка доменов

Когда мы понимаем что из ссылочного плохое, а что хорошее, то на этом этапе домены начинаем маркировать по следующему принципу:

Google Disavow Links — как отклонить «плохие» ссылки?

Приведу пояснения, чтобы понимали общую картину:

  • Красным цветом выделяем явно некачественных доноров, оставляем в рабочем файле краткий комментарий на основе чего было принято такое решение. Автоматически относим к некачественным донорам сайты тематик: казино, фармакология, порно, оружие и т. п.
  • Желтым выделяем сомнительные площадки, которые требуют ручной проверки.
  • Ну и зелёным цветом выделяем приятных доноров. Сюда на автомате относим, например, сайты правительственных организаций.

Получается такой светофорчик, то есть, перед нами разные цвета, распределяющие доноров по уровню их качества (по нашему мнению).

Картинка по запросу «светофор Колумб» для привлечения внимания.
Картинка по запросу «светофор Колумб» для привлечения внимания.

Проверка и перепроверка

Рекомендация по желтым доменам. Пройдемся чуть-чуть по механикам как можно ускориться. Важно пройтись по желтым донорам вручную. Можно открывать каждый урл или для ускорения, задействовать сервис url-opener.com, либо любой другой аналог. В зависимости от мощности компьютера и размера монитора в браузере можно открывать по 20-30 ссылок за раз.

url-opener.com — что это? Это сервис массового открытия страниц, который позволит ускорить процесс принятия решений по сомнительным донорам. Открываем, проходимся вручную по донору, смотрим насколько спамный вариант перед нами и принимаем решение.

Взаимоисключение «своих» доноров

Следующая механика для ускорения, это когда мы отсеиваем свои ссылки. Что имеется ввиду? Идем в свою базу, забираем оттуда точно норм площадки на текущий момент и замазываем их сразу зелеными в рабочем файле, как бы по умолчанию считая их хорошими. Довольно большое количество ссылок (особенно каталогов) можно отсечь сразу из анализа. Наша база всегда в актуальном состоянии, так как каждый день туда вносятся правки (плохих доноров убираем, новых хороших добавляем).

Вот так контролируем то, что есть в базе.
Вот так контролируем то, что есть в базе.

Чектраст

Также, упростить задачу по желтым донорам нам поможет чектраст. В интерфейсе сервиса выбираем все параметры для сбора одним запросом. Так будет выгоднее. Вообще, чектраст считаю вспомогательным инструментом, потому что нельзя на 100% доверять данным этого сервиса. Решение о том хороший донор или плохой должно приниматься на основании совокупности параметров и комплексного анализа. Ни один параметр сам по себе (по-отдельности) не может являться критерием отсева. Если только не какие-то критические случаи, которые дальше разберём.

Плохие доноры

Давайте пройдемся по пунктам, которые нас беспокоят.

Резкое падение в ноль (по видимости, ключи в топе, например, разницы нет). Но при этом, важно понимать, что только сам факт отсутствия трафика — это слишком жесткий критерий в данном случае, так можно и без доноров остаться, поэтому важно соблюдать баланс. Стабильный трафик, без резких падений — уже норм.

Вирусы, фишинг — это то, о чем пингуют любые сервисы типа Safe Browing у поисковых систем. Ошибки с SSL-сертификатом туда же. Обычно, таких доноров пропускаем, чтобы в следующий раз их перепроверить.

Много акцепторов — тут все понятно, это означает большое количество исходящих ссылок. Есть нюансы, например, каталоги — этот тип ссылок изначально предполагает, что исходящих будет много, поэтому другие критерии должны быть в приоритете, например, в первую очередь ориентироваться на органический трафик.

Сайты-анализаторы — ничего полезного, отсеиваем любую автоматику на первом уровне ссылочного.

Другие языки кроме продвигаемого нас не интересуют, особенно экзотика.

Ну и любой спамчик.

Google Disavow Links — как отклонить «плохие» ссылки?

Спамчик

Под спамом имею ввиду любые страницы или доноры, у которых есть какая-либо аномалия в контенте или в анкор-листе (во входящем или исходящем), но на практике бывают разные ситуации, например, когда в контенте было минус слово и на автомате заминусовали этот сайт из проверки, хотя это был сайт адвокатской конторы, где были представлены члены какой-то ассоциации:

Будьте внимательнее при автоматической проверке доноров.
Будьте внимательнее при автоматической проверке доноров.

Похожее было и в строительной тематике, с вибраторами для бетона, например.

Внезапный опрос! А какой бы вибратор выбрали бы вы?
Для бетона
Напишу свой вариант в комментариях.

Кстати, rush-analytics.ru всегда рекомендую для проверки автоматикой. Контент по веб-архиву проверяется за последние 5 лет и анкорка по ахрефсу, но только входящая. Исходящую анкорку самим вручную придется проверять, если есть ахрефс или другой ссылочный анализатор.

Кстати, список минус-слов сохраните себе, пригодится в работе же. Часто используем при пробиве дроп-доменов.

Двойная проверка

Допустим, спец выполнил эту задачу, нужно перепроверять его более опытному спецу, чтобы подтвердить корректность анализа. На этом этапе спец может оставить желтые площадки, которые у него под сомнением, чтобы посоветоваться и принять окончательное решение.

После проверки задачи ответственным по проекту и внесенных корректировок, желтых доменов не должно оставаться — получается, что домены либо хорошие, либо плохие. Ну и по итогу, создаем текстовый файл для его загрузки в Google Disallow Links.

Напомню, ради чего это все делалось, в Google Disavow Links должны быть только плохие домены.

Нюансы по оформлению файла

Есть нюансы по оформлению этого файла (для GDL). А именно:

  • Полнота. В списке доменов должны быть все некачественные доноры сайта на момент анализа.
  • Корректность. Исключаем ошибки за счёт двойной проверки и опыта проверяющих.
  • По поводу учёта зеркал. Использование доноров в двух написаниях (без «www» и с «www») необходимо для того, чтобы добавить в исключения потенциальные зеркала сайтов. Зеркала идут с приставкой «domain:». Вообще, в GDL можно отклонять только урлы определенные, но мы, обычно, указываем подоменно сразу. IP-адреса тоже отклоняем, но без зеркал, иначе будет ошибка после заливки файла в сервис.
  • Ещё сразу сортируем домены, чтобы все было аккуратно в файле. Задаём правильное название, чтобы далее любой сотрудник мог найти нужные файлы в любой момент.

Как выглядит файл для GDL?

Вот так выглядит итоговый файл с отклоненными ссылками, где отсортированы все домены:

Обратите внимание, что перед доменами используется оператор domain:
Обратите внимание, что перед доменами используется оператор domain:

Мини-отчет для клиента

Далее отчитываемся перед клиентом, чтобы он понимал, что мы сделали. Все эти манипуляции ему могут быть и не нужны, главное, есть конечный результат — сам файл с отклоненными донорами, плюс описанная логика.

Итак, в конце работы у нас есть:

  • Отчёт для клиента.
  • Рабочий файл специалиста.
  • Текстовый файл для Disavow Google.

Норм.

Эксперименты

У Гугла есть специальный инструмент для отклонения плохих ссылок, но как быть в Яндексе? В рамках эксперимента, мы около года, отправляли Платонам список плохих доноров и просим в письме не учитывать эти плохие ссылки. Само по себе, письмо вообще ничего не гарантирует, но мы надеемся, что, возможно, это учтется.

Похожим способом, действовали ранее, когда, например, обнаруживали, что сайт крутят по поведенческим факторам. Логика была такой:

«Напишу-ка я на всякий случай, вдруг поможет».

Так вот, подобные письма, по факту, никак нам не помогли. Негативный опыт — это тоже опыт. Зафиксировали и идём дальше.

Индексация

Я часто про это говорю:

Если ваше ссылочное не индексируется, то оно, по сути, бесполезно

Поэтому, у нас есть, отличная возможность попытаться добиться индексации хороших доноров на старте проекта.

Небольшой производственный кейс. До работ по добавлению в индекс, «естественная» индексация качественных ссылок выглядела так как на скриншоте:

То есть, 70% этих ссылок было проиндексировано в Яндексе и всего 36% в Гугле. Сервис <a href="https://linkbox.pro/to37/seosekretiki" rel="nofollow noreferrer noopener" target="_blank">linkbox.pro</a>
То есть, 70% этих ссылок было проиндексировано в Яндексе и всего 36% в Гугле. Сервис linkbox.pro

Поскольку мы не имели доступа к этим площадкам и не могли корректировать контент на них, нами были использованы сервисы добавления страниц в индекс поисковых систем. Отправляли в индекс каждые 4 дня, аккуратненько по 10-15% от общего объема не проиндексированных. Это отличная точка роста на ровном месте. Результат приятный, всем рекомендую.

В работе использовали этих двух ботов:

Контакты

Чтобы вы могли вспомнить все основные моменты данной статьи и попробовать повторить создание данного файла по описанной механике, на моем Телеграм-канале есть чек-лист.

Мы можем вам помочь с разработкой ссылочной стратегии, чистке ссылочного профиля, а также по выстраиванию, покупке и добыче ссылок (в том числе и по сильно конкурентным тематикам). Работаем правда только на абонентке. Чтобы обсудить ваш проект, то напишите мне в личку в Телеграмм. И не забудьте подписаться на Телеграм-канал «SEO-секретики».

Если возникнут вопросы, то напишите их под этой статьей. Буду рад ответить!

10
9 комментариев
Комментарий удалён модератором

Полностью согласен! Обычно, это учитывают в ссылочной стратегии. 👍🏻

Ответить

Айрат, спасибо за развернутую информацию в статье. Тайное становится явным, если ты не сеошник, а предприниматель и есть желание вникнуть в рабочие seo процессы.

1
Ответить

Контент огонь🔥
Только у Яндекса «все на подхвате и ничего не требуется»))

1
Ответить

Спасибо! Всё так! 😂

Ответить

Вижу статью от Айрата - ставлю капитальный лайк 😁👍
Спасибо за полезный контент!

1
Ответить

Понравилось, как вы структурировали работу с файлами, это делает процесс более организованным

1
Ответить