摘要: 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。 其实通俗的讲就是通过程序去获取web页面上自己想要的数据,也就是自动抓取数据 爬虫的基本流程 发起请求通过HTTP库向目标站点发起请求,也就是发送一个Re 阅读全文
posted @ 2020-03-22 22:48 yuxi_o 阅读(855) 评论(0) 推荐(0) 编辑