python.scrapy爬虫随机请求头设置


 1、准备好一定数量的请求头
 2、更改setting.py中的设置
 3、编写中间件
 4、验证结果

 1、准备好一定数量的请求头,网上很多,自行搜索
```python
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1",
"User-Agent:Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50",
"User-Agent:Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50",
"User-Agent:Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1"
```
 2、更改setting.py中的设置,注释掉ROBOTSTXT_OBEY = True,将user-agent改为字典形式,启用下载中间件,后面的数字是权值

 

 3、编写中间件middlewares.py,将原先的删除,重写编写,导入random库和导入settings中的uesr-agent的配置

 

>4、编写parse验证结果scrapy crawl getip --nolog(nolog是去掉日志信息)

 

posted on   子而  阅读(175)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示