摘要: 一、简单说明爬虫原理 通俗来讲,网络爬虫是指通过程序模拟浏览器站点的行为,向网站发起请求,把站点返回的HTML代码、JSON数据、二进制数据(图片、视频等)抓取到本地,再通过程序提取分析数据,用以代替繁琐、低效和通过复制粘贴等手段来获取数据的技术。 二、理解爬虫开发过程 1、简要说明浏览器工作原理 阅读全文
posted @ 2019-03-26 17:10 LSpirit 阅读(459) 评论(0) 推荐(0) 编辑