07 2019 档案

摘要:执行结果: 我第一个觉得a,b都是同时指向列表[1,2,3],对b修改,a也会同时修改。所以结果应该是 [1,2,3,1,2,3][1,2,3,1,2,3]但是结果确实错误的。 对于操作b = b+ [1,2,3] 先计算b+[1,2,3]然后 b再指向这个结果。所以b的结果会发生改变。 b += 阅读全文
posted @ 2019-07-25 16:45 JayMu 阅读(149) 评论(0) 推荐(0) 编辑
摘要:昨天去面试,发现了装饰器还是不太熟悉, 笔试题目是: 随意编写两个对输入参数做加减乘除运算的函数(需要有除法),写完后,用装饰器实现对函数出现除数为0的异常捕获,如果有异常,使用print打印日志。 这个题我就懵了,装饰器不是在def 函数中上面使用@ 才是装饰器吗,这个怎么用。我只会使用try e 阅读全文
posted @ 2019-07-25 16:03 JayMu 阅读(163) 评论(0) 推荐(0) 编辑
摘要:selenium是可以模拟浏览器操作。 有些爬虫是异步加载的,通过爬取网页源码是得不到需要的内容。所以可以模拟浏览器去登陆该网站进行爬取操作。 需要安装selenium通过pip install xxx安装,如果你使用的Anaconda3,可以使用conda install xxx这些都是可以 值得 阅读全文
posted @ 2019-07-24 10:34 JayMu 阅读(904) 评论(0) 推荐(1) 编辑
摘要:入门scrapy。 学习了有这几点 1.如何使用scrapy框架对网站进行爬虫; 2.如何对网页源代码使用xpath进行解析; 3.如何书写spider爬虫文件,对源代码进行解析; 4.学会使用scrapy的基础命令,创建项目,使用模板生成一个爬虫文件spider; 5,通过配置settings.p 阅读全文
posted @ 2019-07-04 15:11 JayMu 阅读(669) 评论(0) 推荐(0) 编辑
摘要:scarpy据说是目前最强大的爬虫框架,没有之一。就是这么自信。 官网都是这么说的。 An open source and collaborative framework for extracting the data you need from websites. In a fast, simpl 阅读全文
posted @ 2019-07-03 16:52 JayMu 阅读(404) 评论(0) 推荐(0) 编辑