随笔分类 -  爬虫

摘要:网络爬虫是捜索引擎抓取系统的重要组成部分。爬虫的主要目的是将互联网上的网页下载到本地形成一个或联网内容的镜像备份。这篇博客主要对爬虫以及抓取系统进行一个简单的概述。 一、网络爬虫的基本结构及工作流程 一个通用的网络爬虫的框架如图所示: 网络爬虫的基本工作流程如下: 1.首先选取一部分精心挑选的种子U 阅读全文
posted @ 2016-10-21 23:54 bcombetter 阅读(18753) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示