摘要: 1.数据收集 scrapy:网页采集、爬虫。 scrapy-redis:分布式爬虫。 selenium:web测试、仿真浏览器。 2.数据处理 beautifulsoup:网页解释库,提供lxml的支持。 lxml:xml解释库。 xlrd:excel文件读取。 xlwt:excel文件写入。 sl 阅读全文
posted @ 2020-12-22 13:40 bellin124 阅读(1702) 评论(0) 推荐(0) 编辑
摘要: 第三地方库下载地址: https://pypi.org/project/xlrd/#files 选择适合自己安装的Python的版本进行下载 1.下载安装wheel文件 以管理员身份运行cmd 转到Python的Scripts目录下: cd C:\Program Files\Python33\Scr 阅读全文
posted @ 2020-12-22 13:28 bellin124 阅读(124) 评论(0) 推荐(0) 编辑