会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
1
2
6
PengLi
一个学生物的程序猿
博客园
首页
新随笔
联系
订阅
管理
2020年5月18日
python 爬虫由于网络或代理不能用导致的问题处理方法
摘要: 平时在爬取某些网页的时候,可能是由于网络不好或者代理池中的代理不能用导致请求失败。此时有们需要重复多次去请求,python中有现成的,相应的包供我们使用: 1. 我们可以利用retry模块进行多次请求,如果全部都失败才报错。当然使用retry库之前也需要先安装,eg:
阅读全文
posted @ 2020-05-18 18:25 peng_li
阅读(1634)
评论(0)
推荐(0)
编辑
公告
1