Так как BatchURLScraper позволяет извлекать данные из произвольного списка страниц, в котором могут встречаться URL от разных доменов и, соответственно, разных типов сайта, то для примеров тестирования извлечения данных мы будем использовать все пять вариантов скрейпинга: XPath, CSS, RegExp, XQuery и HTML templates. Список тестовых URL и настроек правил находятся в дистрибутиве программы, таким образом можно протестировать все это лично, используя пресеты (предустановленные настройки парсинга).
Андрей, спасибо! Буквально позавчера возникла необходимость в подобной задаче (найти элемент по определенным правилам, на всех страницах сайта, чтобы понять, где он пустой). Думал уже разбираться с А-парсером, или подобным софтом... Так что ваша программа как нельзя кстати - сразу в тест пойдет. Огромное спасибо вам за все что вы делаете!
Если говорим про SEO, то не проще ли ScreamingFrog воспользоваться?)
Пожалуйста! Уже выложили апдейт )
А еще лучше просто использовать многопоточный Puppeteer, гораздо больше возможностей. Бесплатно, гибко и масштабируемо. Нужно было найти свой номер на страницах одного сайта, написал скрипт и распарсил на скорости 600 страниц в минуту (машина MBP 15" 2018). https://www.npmjs.com/package/puppeteer-cluster
Комментарий недоступен
Понятно, что для серьезных задач можно нанять программиста, который все это настроит или выучить язык программирования за неделю)) Но на все это нужно время либо финансовые ресурсы, которых зачастую нет.
Программа же предназначена для оперативного решения тех или иных задач извлечения данных, когда нужно здесь и сейчас без лишних заморочек.
Написал свой скрипт, ради того чтобы найти свой номер на страницах ОДНОГО сайта... Уважаемый, а вы точно сеошник?)