• 欢迎访问搞代码网站,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站!
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏搞代码吧

Python Scrapy框架:通用爬虫之CrawlSpider用法简单示例

python 搞代码 4年前 (2022-01-08) 24次浏览 已收录 0个评论

这篇文章主要介绍了Python Scrapy框架:通用爬虫之CrawlSpider用法,结合实例形式分析了Scrapy框架中CrawlSpider的基本使用方法,需要的朋友可以参考下

本文实例讲述了Python Scrapy框架:通用爬虫之CrawlSpider用法。分享给大家供大家参考,具体如下:

步骤01: 创建爬虫项目

 scrapy startproject quotes 

步骤02: 创建爬虫模版

 scrapy genspider -t quotes quotes.toscrape.com 

步骤03: 配置爬虫文件quotes.py

 import scrapy from scrapy.spiders import CrawlSpider, Rule from scrapy.linkextractors import LinkExtractor class Quotes(CrawlSpider): # 爬虫名称 name = "get_quotes" allow_domain = ['quotes.toscrape.com'] start_urls = ['http://quotes.toscrape.com/'] # 设定规则 rules = ( # 对于quotes内容页URL,调用parse_quotes处理, # 并以此规则跟进获取的链接 Rule(LinkExtractor(allow=r'/page/\d+'), callback='parse_quotes', follow=True), # 对于author内容页URL,调用parse_author处理,提取数据 Rule(LinkExtractor(allow=r'/author/\w+'), callback='parse_author') ) # 提取内容页数据方法 def parse_quotes(self, response): for quote in response.css(".quote"): yield {'content': quote.css('.text::text').extract_first(), 'author': quote.css('.author::text').extract_first(), 'tags': quote.css('.tag::text').extract() } # 获取作者数据方法 def parse_author(self, response): name = response.css('.author-title::text').extract_first() author_born_date = response.css('.author-born-date::text').extract_first() author_bron_location = response.css('.author-born-location::text').extract_first() author_description = response.css('.author-description::text').extract_first() return ({'name': name, 'author_bron_dat<span style="color:transparent">来源gaodai#ma#com搞*!代#%^码$网</span>e': author_born_date, 'author_bron_location': author_bron_location, 'author_description': author_description }) 

步骤04: 运行爬虫

 scrapy crawl quotes 

更多相关内容可查看本站专题:《》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》

希望本文所述对大家基于Scrapy框架的Python程序设计有所帮助。

以上就是Python Scrapy框架:通用爬虫之CrawlSpider用法简单示例的详细内容,更多请关注gaodaima搞代码网其它相关文章!


搞代码网(gaodaima.com)提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发送到邮箱[email protected],我们会在看到邮件的第一时间内为您处理,或直接联系QQ:872152909。本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:Python Scrapy框架:通用爬虫之CrawlSpider用法简单示例

喜欢 (0)
[搞代码]
分享 (0)
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址