04 2021 档案
摘要:一、代码 这里没有什么反爬措施,所以就不分析了,直接上代码 import hashlib import re from concurrent.futures import ThreadPoolExecutor from urllib import parse import requests from
阅读全文
摘要:一、介绍 在执行爬虫requests库时,经常会碰到各种的请求失败,有时是超时,有时是代理失败。那么此时我们还是需要拿到数据就必须重试执行几次函数 在代码中就是多来几次函数加括号,或者是来个递归函数,直到执行成功。但还是比较麻烦的。 那么使用装饰器来实现是最好的,需要重试的就加上装饰器,不需要的就不
阅读全文