摘要: 爬虫,是按照一定的规则,自动地抓取万维网信息的程序或者脚本,实质就是通过程序自动去获取 Web 页面上想要获取的数据,即自动抓取数据。 浏览器的所有结果都是由代码组成,爬虫就是为了获取这些内容,通过过滤、分析代码,从中获取我们想要的数据。 2. 理解爬虫开发过程 1).简要说明浏览器工作原理; 网络 阅读全文
posted @ 2019-03-27 19:21 廖世豪 阅读(202) 评论(0) 推荐(0) 编辑