摘要: 网络爬虫是捜索引擎抓取系统的重要组成部分。爬虫的主要目的是将互联网上的网页下载到本地形成一个或联网内容的镜像备份。 2. 理解爬虫开发过程 1).简要说明浏览器工作原理; 网络爬虫的基本工作流程如下: 1.首先选取一部分精心挑选的种子URL; 2.将这些URL放入待抓取URL队列; 3.从待抓取UR 阅读全文
posted @ 2019-03-27 10:20 李嘉杰 阅读(253) 评论(0) 推荐(0) 编辑