1 2 Fork me on GitHub 6
摘要: 平时在爬取某些网页的时候,可能是由于网络不好或者代理池中的代理不能用导致请求失败。此时有们需要重复多次去请求,python中有现成的,相应的包供我们使用: 1. 我们可以利用retry模块进行多次请求,如果全部都失败才报错。当然使用retry库之前也需要先安装,eg: 阅读全文
posted @ 2020-05-18 18:25 peng_li 阅读(1634) 评论(0) 推荐(0) 编辑
1