摘要: 一、爬虫原理 1.什么是互联网? 指的是由一堆网络,把一台台计算机互联到一起称之为互联网。 2.互联网建立的目的? 为了数据的传递以及数据的共享。 3.上网的全过程: 普通用户:打开浏览器->往目标网站发送请求->获取响应数据->渲染到浏览器中 爬虫程序:模拟浏览器->往目标网站发送请求->获取响应数据->提取有价值数据->持久化到数据中 ... 阅读全文
posted @ 2019-06-26 21:34 羊王 阅读(141) 评论(0) 推荐(0) 编辑