摘要: 爬虫本质就是模拟浏览器访问 所以理论上平时网页中的操作都可以使用爬虫技术来复原操作 在熟悉HTTP的基础上,可以说是很简单的 爬虫的步骤 1、分析网页 通过F12查看并分析页面,找到需要的数据 如果数据是由JS获得的,就需要使用phantomjs(无头浏览器),selenium(驱动浏览器进行访问) 阅读全文
posted @ 2018-05-20 21:08 隔壁古二蛋 阅读(182) 评论(0) 推荐(0) 编辑