摘要: 一、爬虫原理1.互联网:由一堆网络设备把一台台计算机互联到一起称之为互联网2.互联网建立的目的:传递与共享数据3.上网的全过程普通用户: 打开浏览器 >往目标站点发送请求 >获取响应数据 >渲染到浏览器中爬虫程序: 模拟浏览器 >往目标站点发送请求 >获取响应数据 >提取有价值的数据 >持久化到数据 阅读全文
posted @ 2019-06-26 19:03 十年深思 阅读(140) 评论(0) 推荐(0) 编辑