Пользователи могут собирать информацию, используя библиотеки наподобие Selenium, чтобы автоматизировать этот процесс. Когда на веб-странице есть список, то чаще всего есть и другие страницы, помимо той, которая сразу отображается пользователю. Пример — веб-страницы с «бесконечной прокруткой». Например, предположим, что вы просматриваете веб-страницы YouTube. На веб-странице, которую вы просматриваете, среди всех перечисленных видео не оказалось такого, который вы бы захотели посмотреть. Затем вам нужно прокрутить список вниз, чтобы появились следующие видео. Selenium позволяет пользователям автоматизировать перемещение по последующим страницам списка и сканирование требуемой информации о каждом элементе списка. Далее пользователи могут сформировать набор данных, содержащий информацию о каждом элементе списка, представленного на веб-сайте. Например, можно создать набор данных о фильмах, в который будут входить наименования, рейтинги IMDb, актеры и позиции фильмов в топе 250 IMDb, сканируя список лучших фильмов по версии IMDb с помощью инструментов с открытым исходным кодом наподобие Scrapy.
Интересная позиция. Парсить законно но мы на всякий случай спрачемся за proxy.
главное перс.данные не хватать.
Вам нужно поговорить с вашим сеошником, который написал почти во все заголовки "веб сайты" о том как не надо писать структуру статьи в ТЗ копирайтеру. И подскажите, пожалуйста, какие ещё типы сайтов кроме "веб" существуют?
ed2k, gopher, et cetera?
писал я в том числе. веб сайты = сайты. кажется, что это слова синонимы нынче.
Буква Г не поместилась, но это не беда!