Scrapy является быстрой высокоуровневой платформой анализа экранных данных и веб-сканирования с открытым исходным кодом, записанной в Python, используемом, чтобы проверить веб-сайты и извлечь структурированные данные из их страниц. Это может использоваться в широком спектре целей, от анализа данных до контроля и автоматизировало тестирование.
Scrapy является быстрой высокоуровневой платформой анализа экранных данных и веб-сканирования, используемой, чтобы проверить веб-сайты и извлечь структурированные данные из их страниц. Это может использоваться в широком спектре целей, от анализа данных до контроля и автоматизировало тестирование. Функции Scrapy включают:
Scrapy родился при лондонском веб-агрегировании и компании электронной коммерции Mydeco, где он разрабатывался и сохранялся сотрудниками Mydeco и Insophia (веб-консалтинговая компания, базирующаяся в Монтевидео, Уругвай). Первый общедоступный выпуск был в августе 2008 в соответствии с лицензией BSD с этапом 1,0 выпуска, происходящие в июне 2015. В 2011 Scrapinghub стал новым официальным специалистом по обслуживанию.
мы можем установить Scrapy и его зависимости от PyPI с:
pip install Scrapy
или устанавливать Scrapy с помощью condaconda, работайте:
conda install -c conda-forge scrapy
Вот код для паука, который очищает известные кавычки с веб-сайта http://quotes.toscrape.com, после разбиения на страницы:
import scrapy class QuotesSpider(scrapy.Spider): name = 'quotes' start_urls = [ 'http://quotes.toscrape.com/tag/humor/', ] def parse(self, response): for quote in response.css('div.quote'): yield { 'text': quote.css('span.text::text').get(), 'author': quote.xpath('span/small/text()').get(), } next_page = response.css('li.next a::attr("href")').get() if next_page is not None: yield response.follow(next_page, self.parse)
Поместите это в текстовый файл, назовите его к чему-то как quotes_spider.py и выполните паука с помощью команды runspider: