Scrapy - CrawlSpider爬虫
crawlSpider 爬虫
思路:
从response中提取满足某个条件的url地址,发送给引擎,同时能够指定callback函数。
1. 创建项目
scrapy startproject myspiderproject
2. 创建crawlSpider 爬虫
scrapy genspider -t crawl 爬虫名 爬取网站域名
3. 启动爬虫
scrapy crawl 爬虫名 # 会打印日志
scrapy crawl 爬虫名 --nolog
crawlSpider 的参数解析:
案例
需求:爬取csdn上面所有的博客专家及其文章的文章 Url地址:http://blog.csdn.net/experts.html 。
分析:
使用crawlSpider 的注意点:
补充知识点:
有疑问可以加wx:18179641802,进行探讨
【推荐】还在用 ECharts 开发大屏?试试这款永久免费的开源 BI 工具!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步