2019年10月14日

摘要: crawley startproject crawley_spider cd crawley_spider pypiScraper类内部定义的scrape方法。它使用Xpath来获取解析的html,然后将提取的数据存储在Packages表中。 运行爬虫:crawley run 阅读全文

posted @ 2019-10-14 16:03 大白不白 阅读(2571) 评论(0) 推荐(0) 编辑

摘要: 1.主要用到的函数及调用的顺序为: __init__():初始化爬虫名字,和start_urls列表 start_requests()调用make_requests_from_url():生成request对象交给scrapy下载并返回response parse():解析response,并返回I 阅读全文

posted @ 2019-10-14 13:43 大白不白 阅读(173) 评论(0) 推荐(0) 编辑


Copyright © 2024 大白不白
Powered by .NET 9.0 on Kubernetes