摘要: 网络爬虫,是一种按照一定规律。自动获取互联网信息的程序或者脚本。根据用户需求定向抓取相关网页并分析。 1.准备工作:通过浏览器查看分析目标网页 2.获取数据:通过HTTP库向目标点发起请求,请求可以包含额外的header等信息,如果服务器能正常响应,会得到一个Response,便是所要获取的页面内容 阅读全文
posted @ 2020-08-12 13:37 wwbzuiku 阅读(35) 评论(0) 推荐(0) 编辑