Это бывает удобно при тестировании сайта, когда, например, нужно просканировать определенные разделы сайта, закрытые от индексации (либо наоборот – не учитывать их при сканировании), при этом не нужно физически вносить изменения в реальный robots.txt и тратить на это время разработчика.
Андрей, спасибо за новые фишки
Благодарю! По идее 90% всех имеющихся багов исправлено и теперь можно спокойно нечто более толковое внедрять )
Давно слежу за вами,вы молодцы!🔥
Спасибо!
Интересно сделано. Есть косяк с экспортом - нельзя вытащить список битых ссылок в csv с источниками (они в детальном просмотре по клику на каждую ссылку).
Источники есть в Custom Filters, не все, но основная часть. Приложил скриншот