{"id":14286,"url":"\/distributions\/14286\/click?bit=1&hash=d1e315456c2550b969eff5276b8894057db7c9f3635d69a38d108a0d3b909097","title":"\u041f\u043e\u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u043d\u0430\u0434 \u043a\u0440\u0443\u043f\u043d\u0435\u0439\u0448\u0438\u043c\u0438 \u0418\u0422-\u043f\u0440\u043e\u0435\u043a\u0442\u0430\u043c\u0438 \u0441\u0442\u0440\u0430\u043d\u044b","buttonText":"","imageUuid":""}

Создание PBN: поиск дроп доменов на Miralinks

Задача данного пресета — показать производительность A-Parser и собрать максимально тематические дроп-домены в любой нише. Где же искать дропы, чтобы максимально попадать в тематику? Наша гипотеза такова: нужно пропарсить бэклинки с сайтов-участников бирж ссылок. Заходим на Миралинкс, выбираем нужную нам тематику (в нашем случае — “SEO и маркетинг”), задаем нужные параметры по фильтрам (обязательно выбираем, чтобы площадка не принимала нетематику). В результате получилось 107 сайтов, а без учета скрытых — 102.

Нам нужно спарсить все исходящие ссылки с каждого из 102 доменов, затем удалить дубли и привести УРЛ к нормальному виду. Для сбора ссылок мы используем наш встроенный парсер HTML::LinkExtractor. В результате было получено 25 000 уникальных доменов.

Следующие этапы уже были описаны в предыдущем пресете, но вкратце повторим логику работы. Полученный список передаем во встроенный парсер Net::DNS

для получения IP доменов, затем результат передаем в следующий парсер, а именно в Net::Whois, чтобы получить данные о занятости домена. В результате мы получили 2831 дроп-домен.

Теперь нужно получить данные (они будут сохранены в первый файл результатов ) для первичной оценки дроп-доменов, а также дополнительной фильтрации и отсеивания заведомо некачественных дропов (в результаты попадают только домены с DR>2 и количество бэклинков > 10 ).

Данные из Rank::Ahrefs. Для парсинга нужна рекапча:

  • Количество ссылающихся доменов RD
  • Количество бэклинков Ahrefs BL
  • Анкоры
  • Dofollow

Данные с Rank::MajesticSEO:

  • Анкоры
  • Trust Flow
  • Citation Flow
  • Количество ссылающихся доменов
  • Количество бэклинков
  • Количество проиндексированных страниц

Данные из Rank::Archive:

  • Количество сохраненных копий сайта

Данные с MegaIndex:

  • определение категории (тематика) сайта

Данные из Гугл:

  • значение количества найденных результатов ( site:domain.com)

На скриншоте часть полученных результатов.

Второй файл результатов содержит информацию об обратных ссылках по найденным дропам. Теперь вам остается проанализировать первый файл результатов для отсеивания заведомо некачественных дропов, а во втором файле с результатами вы уже оцените бэклинки по оставшимся дроп-доменам. Ссылка на второй файл результатов.

0
Комментарии
-3 комментариев
Раскрывать всегда