爬虫利器faker_useragent构造user-agent池

一部分网站反爬,会通过检查请求的请求头里是否有浏览器的user-agent来判断请求是否是爬虫。
当你在请求头里加上user-agent,然后,进行反复的请求后,系统又会判断请求时爬虫,因为单一版本浏览器请求过多,为了达到以假乱真的目的,你需要构建一个user-agent池,然后随机调用,那样相对比较繁琐但有效。以往是要这样的

利器来了

如果你不想构造池呢,请看下面。
大名鼎鼎的faker 来了!!!fake_useragent

先下载库
pip install fake_useragent

上代码

from fake_useragent import UserAgent

headers = {undefined
‘User-Agent’: UserAgent().random,
}

posted on 2022-04-01 11:31  耀扬  阅读(197)  评论(0编辑  收藏  举报

导航