路飞学城Python-Day153
Scrapy核心组件
引擎
用来处理这个系统的数据流处理,出发事务(框架核心)
引擎会监测到爬虫文件中有没有定义url,如果有url,引擎就会调用一个startrequest的一个父类的方法,对爬虫文件中起始url列表发起请求,这些对象都会提交给引擎
管道
负责处理爬虫从网页中抽取出来的实体,主要的功能是持久化实体,验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道中,并经过几个特定的次序处理数据。
管道接收到了(item)数据之后,管道完成最后的数据持久化存储
调度器
用来接收引擎发送过来的请求对象,压入队列(对网址进行去重的操作),并在引擎再起请求的时候返回,可以想象成一个url(抓取网页的网址或者链接)的优先队列,由它决定下一个要抓取的网址是什么
引擎对url的调用提交的对象都会放入调度器的队列中,调度器对队列中的请求进行请求的页面数据的下载,页面的数据就是有调度器中调度请求给下载器
下载器
用于下载网页内容,并将网页内容返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的)
下载器拿到调度器解析好的请求之后,去互联网中拿到请求中解析的内容,下载数据,页面数据下载完成后存储在下载器中,下载器下载的页面数据会交给爬虫
爬虫文件
爬虫主要是干活的,用于从特定的网页提取自己需要的信息,即所谓的实体(item)用户也可以从中提取出链接,让爬虫再次抓取下一个页面
爬虫拿到下载器下载的所有的页面数据之后就会对页面数据中的内容进行解析,调用parse方法解析,解析的数据值放入item中
Win a contest, win a challenge
posted on 2018-11-18 16:17 pandaboy1123 阅读(164) 评论(0) 编辑 收藏 举报
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南