scrapy 简单操作

1、创建一个简单的scrapy项目   

scrapy startproject search(项目名称)
按照提示
cd search
scrapy genspider serachname search.com

生成的项目结构如下:

 

searchname.py :

1、一种方式,入口为 start_urls =[] 

2、另外一种方式,重写start_requests, 这里yield出去一个Request, 且不带callback参数,则默认回调parse方法

 

可以yield  request, 可以yield item, 也可以yield {‘’:‘’} dict类型数据到管道中,在管道中进行处理 

 

如果需要入库或者进行抓取的数据,可以记录到item中去,进行后续的处理。

在item中进行各种类型的数据定义,比较简单;并引入到spider中去使用

 

pipelines.py 

 

 

 

 

 

 

 

 

 




posted on   yingchen  阅读(119)  评论(0编辑  收藏  举报

编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示