摘要: 1. 简单说明爬虫原理 通用网络爬虫 从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,也就是模拟浏览器的动作从网站上搜索信息,并获取自己需要的信息。 2. 理解爬虫开发过程 1).简要说明浏览器工作原理; 1:向服务器发起请求 通过HTTP库向目标站点发起请求,即发送一 阅读全文
posted @ 2019-03-27 17:02 sizhanhe 阅读(126) 评论(0) 推荐(0) 编辑