request模块

1:request 模块介绍

https://requests.readthedocs.io/en/master/

1.1request模块的作用

发送http请求,获取响应数据

1.2:request模块的安装

ip/pip3 install requests

1.3:requests模块发送get请求

import requests
#目标url
url = "http://www.baidu.com"
#向目标url发送请求
reponse = requests.get(url)
#打印相应内容
print(reponse.text)
print(reponse.content.decode())

 

  • 1. **response.text是requests模块按照chardet模块推测出的编码字符集进行解码的结果**
  • 2. 网络传输的字符串都是bytes类型的,所以response.text = response.content.decode('推测出的编码字符集')
  • 3. 我们可以在网页源码中搜索`charset`,尝试参考该编码字符集,注意存在不准确的情况

2:响应

2.1:  response.text 和response.content的区别:

- response.text

  • - 类型:str
  • - 解码类型: requests模块自动根据HTTP 头部对响应的编码作出有根据的推测,推测的文本编码

- response.content

  • - 类型:bytes
  • - 解码类型: 没有指定

2.2 通过对response.content进行decode,来解决中文乱码

  1. - `response.content.decode()` 默认utf-8
  2. - `response.content.decode("GBK")`
  3. - 常见的编码字符集

             - utf-8
             - gbk
               - gb2312
              - ascii (读音:阿斯克码)
               - iso-8859-1

2.3:常见的response响应对象的其它常用属性或方法

#常见的相应对象的参数
#相应url
print(reponse.url)
#响应对象的请求头
print(reponse.request.headers)
#相应头
print(reponse.headers)
#响应请求的cookie,返回cookiesJar类型
print(reponse.request._cookies)
#自动将json字符串类型的响应内容转换为python对象(dict or list)
# print(reponse.json())
#响应状态码
print(reponse.status_code)

3:request发送请求

3.1:发送带header 的请求

3.1.1 思考

1. 对比浏览器上百度首页的网页源码和代码中的百度首页的源码,有什么不同?

  1. - 查看网页源码的方法:
  2. - 右键-查看网页源代码 或
  3. - 右键-检查

2. 对比对应url的响应内容和代码中的百度首页的源码,有什么不同?

  1. - 查看对应url的响应内容的方法:
  2. 1. 右键-检查
  3. 2. 点击 `Net work`
  4. 3. 勾选 `Preserve log`
  5. 4. 刷新页面
  6. 5. 查看`Name`一栏下和浏览器地址栏相同的url的`Response`

3. 代码中的百度首页的源码非常少,为什么?

  1. - 需要我们带上请求头信息
  2. > 回顾爬虫的概念,模拟浏览器,欺骗服务器,获取和浏览器一致的内容
  3. - 请求头中有很多字段,其中User-Agent字段必不可少,表示客户端的操作系统以及浏览器的信息
url = "http://www.baidu.com"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"
}
#向目标url发送请求
reponse = requests.get(url,headers=headers)
print(reponse.content.decode())

3.2 发送带参数的请求

寻找关键字参数,删除关键字的方法

1.构建请求参数字典

​ 2.向接口发送请求的时候带上参数字典,参数字典设置给params

import requests

headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

# 这是目标url
# url = 'https://www.baidu.com/s?wd=python'

# 最后有没有问号结果都一样
url = 'https://www.baidu.com/s?'

# 请求参数是一个字典 即wd=python
kw = {'wd': 'python'}

# 带上请求参数发起请求,获取响应
response = requests.get(url, headers=headers, params=kw)

print(response.content)

 

3.3 在header参数中携带cookie

网站经常利用请求头中的Cookie字段来做用户访问状态的保持,那么我们可以在headers参数中添加Cookie,模拟普通用户的请求。我们以github登陆为例:


3.3.1 github登陆抓包分析

1. 打开浏览器,右键-检查,点击Net work,勾选Preserve log
2. 访问github登陆的url地址 `https://github.com/`
3. 输入账号密码点击登陆后,访问一个需要登陆后才能获取正确内容的url,比如点击右上角的Your profile访问`https://github.com/new`
4. 确定url之后,再确定发送该请求所需要的请求头信息中的User-Agent和Cookie

3.3.2 代码

import requests
url = "https://github.com/new"
header = {
    # 'Cookie': '_octo=GH1.1.341066249.1605281227; tz=Asia%2FShanghai; _device_id=6cb52123dd5bd25c97779f85cbcbec66; has_recent_activity=1; user_session=fq-ieMjRmnooiyjHCmWX-XnmUUZhcfqSyhSthAzopKTdMzU9; __Host-user_session_same_site=fq-ieMjRmnooiyjHCmWX-XnmUUZhcfqSyhSthAzopKTdMzU9; tz=Asia%2FShanghai; logged_in=yes; dotcom_user=xeipeiqi; _gh_sess=MEyIyZGP0eyXQhCZXsGpEPHjxViIYyUyORBPL%2BIUA%2Fu%2FOdhzf0Fhw1NQQRH9pyQBYFGxNqO%2BDrUds6FT3VkQ97ZQKaeD3%2BgB5GwX0Tj4bMs5e7Gns1QDMlGpXEcfPpPMrdeqxv7DWbq4aIbaP4wQW0yaeQ%2BMacU88Dh2bAH8aiO1zqR5ufU4BJv31i6Qfmz66dfUpItZWlzI1DctO%2F7W%2Bcy9aQuUbKNRKczJBTlIfdvG6y1Dzk9en1WpXd%2BnCXWf9fO9kRT8Gn8LjsVNt9hhucwm5l70%2B7FOwtU7fw%3D%3D--GL3u%2BqwQqZWRccC0--Teuecg2chGSUmr%2BMEKcSIQ%3D%3D',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36'
}

response = requests.get(url,headers=header)
print(response.content.decode())


 3.3.3 运行代码验证结果

> 在打印的输出结果中搜索title,html中的标题文本内容如果是<title>Create a New Repository</title>,则成功利用headers参数携带cookie,获取登陆后才能访问的页面

3.4 cookies参数的使用

> 上一小节我们在headers参数中携带cookie,也可以使用专门的cookies参数

1. cookies参数的形式:字典

  • `cookies = {"cookie的name":"cookie的value"}`
  • - 该字典对应请求头中Cookie字符串,以分号、空格分割每一对字典键值对
  • - 等号左边的是一个cookie的name,对应cookies字典的key
  • - 等号右边对应cookies字典的value

2. cookies参数的使用方法

  • `response = requests.get(url, cookies)`

3. 将cookie字符串转换为cookies参数所需的字典:

  • `cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split('; ')}`

4. 注意:**cookie一般是有过期时间的,一旦过期需要重新获取**

import requests

url = 'https://github.com/USER_NAME'

# 构造请求头字典
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36'
}
# 构造cookies字典
cookies_str = '从浏览器中copy过来的cookies字符串'

cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split('; ')}

# 请求头参数字典中携带cookie字符串
resp = requests.get(url, headers=headers, cookies=cookies_dict)

print(resp.text)

 

3.5 cookieJar对象转换为cookies字典的方法

> 使用requests获取的resposne对象,具有cookies属性。该属性值是一个cookieJar类型,包含了对方服务器设置在本地的cookie。我们如何将其转换为cookies字典呢?

1. 转换方法

  • `cookies_dict = requests.utils.dict_from_cookiejar(response.cookies)`

2. 其中response.cookies返回的就是cookieJar类型的对象
3. `requests.utils.dict_from_cookiejar`函数返回cookies字典

3.6 超时参数timeout的使用

>在平时网上冲浪的过程中,我们经常会遇到网络波动,这个时候,一个请求等了很久可能任然没有结果。
>
>在爬虫中,一个请求很久没有结果,就会让整个项目的效率变得非常低,这个时候我们就需要对请求进行强制要求,让他必须在特定的时间内返回结果,否则就报错。

1. 超时参数timeout的使用方法

  • `response = requests.get(url, timeout=3)`

2. timeout=3表示:发送请求后,3秒钟内返回响应,否则就抛出异常

3.7 了解代理以及proxy代理参数的使用

> proxy代理参数通过指定代理ip,让代理ip对应的正向代理服务器转发我们发送的请求,那么我们首先来了解一下代理ip以及代理服务器

3.7.1 理解使用代理的过程

1. 代理ip是一个ip,指向的是一个代理服务器
2. 代理服务器能够帮我们向目标服务器转发请求

3.7.2 正向代理和反向代理的区别

> 前边提到proxy参数指定的代理ip指向的是正向的代理服务器,那么相应的就有反向服务器;现在来了解一下正向代理服务器和反向代理服务器的区别

1. 从发送请求的一方的角度,来区分正向或反向代理
2. 为浏览器或客户端(发送请求的一方)转发请求的,叫做正向代理
- 浏览器知道最终处理请求的服务器的真实ip地址,例如VPN
3. 不为浏览器或客户端(发送请求的一方)转发请求、而是为最终处理请求的服务器转发请求的,叫做反向代理
- 浏览器不知道服务器的真实地址,例如nginx

3.7.3 代理ip(代理服务器)的分类

1. 根据代理ip的匿名程度,代理IP可以分为下面三类:

- 透明代理(Transparent Proxy):透明代理虽然可以直接“隐藏”你的IP地址,但是还是可以查到你是谁。目标服务器接收到的请求头如下:

```
REMOTE_ADDR = Proxy IP
HTTP_VIA = Proxy IP
HTTP_X_FORWARDED_FOR = Your IP
```

 

- 匿名代理(Anonymous Proxy):使用匿名代理,别人只能知道你用了代理,无法知道你是谁。目标服务器接收到的请求头如下:

```
REMOTE_ADDR = proxy IP
HTTP_VIA = proxy IP
HTTP_X_FORWARDED_FOR = proxy IP
```

 

- 高匿代理(Elite proxy或High Anonymity Proxy):高匿代理让别人根本无法发现你是在用代理,所以是最好的选择。**毫无疑问使用高匿代理效果最好**。目标服务器接收到的请求头如下:

```
REMOTE_ADDR = Proxy IP
HTTP_VIA = not determined
HTTP_X_FORWARDED_FOR = not determined
```

 

2. 根据网站所使用的协议不同,需要使用相应协议的代理服务。从代理服务请求使用的协议可以分为:

  • - http代理:目标url为http协议
  • - https代理:目标url为https协议
  • - socks隧道代理(例如socks5代理)等:
  • 1. socks 代理只是简单地传递数据包,不关心是何种应用协议(FTP、HTTP和HTTPS等)。
  • 2. socks 代理比http、https代理耗时少。
  • 3. socks 代理可以转发http和https的请求

3.7.4 proxies代理参数的使用

> 为了让服务器以为不是同一个客户端在请求;为了防止频繁向一个域名发送请求被封ip,所以我们需要使用代理ip;那么我们接下来要学习requests模块是如何使用代理ip的

- proxies的形式:字典

- 例如
proxies = { 
"http": "http://12.34.56.79:9527", 
"https": "https://12.34.56.79:9527", 
}

response = requests.get(url, proxies=proxies)

 

- 注意:如果proxies字典中包含有多个键值对,发送请求时将按照url地址的协议来选择使用相应的代理ip

 

 

3.8 使用verify参数忽略CA证书

> 在使用浏览器上网的时候,有时能够看到下面的提示(2018年10月之前的12306网站):

![12306ssl错误](.\images\12306ssl错误.png)

- 原因:该网站的CA证书没有经过【受信任的根证书颁发机构】的认证- **[关于CA证书以及受信任的根证书颁发机构点击了解更多](https://blog.csdn.net/yangyuge1987/article/details/79209473/)**,课上我们不做展开

3.8.1 运行代码查看代码中向不安全的链接发起请求的效果

> 运行下面的代码将会抛出包含`ssl.CertificateError ...`字样的异常

import requests
url = "https://sam.huat.edu.cn:8443/selfservice/"
response = requests.get(url)

 

3.8.2 解决方案

> 为了在代码中能够正常的请求,我们使用`verify=False`参数,此时requests模块发送请求将不做CA证书的验证:verify参数能够忽略CA证书的认证

import requests
url = "https://sam.huat.edu.cn:8443/selfservice/" 
response = requests.get(url,verify=False)

4. requests模块发送post请求

> 思考:哪些地方我们会用到POST请求?

  • >
  • > 1. 登录注册( 在web工程师看来POST 比 GET 更安全,url地址中不会暴露用户的账号密码等信息)
  • > 2. 需要传输大文本内容的时候( POST 请求对数据长度没有要求)
  • >
  • > 所以同样的,我们的爬虫也需要在这两个地方回去模拟浏览器发送post请求

4.1 requests发送post请求的方法

- `response = requests.post(url, data)`

- `data`参数接收一个字典

- **requests模块发送post请求函数的其它参数和发送get请求的参数完全一致**

4.2 POST请求练习

下面面我们通过金山翻译的例子看看post请求如何使用:

1. 地址:http://fy.iciba.com/


思路分析

  • 1. 抓包确定请求的url地址
  • 2. 确定请求的参数
  • 3. 确定返回数据的位置
  • 4. 模拟浏览器获取数据

4.2.3 抓包分析的结论

  • 1. url地址:`http://fy.iciba.com/`
  • 2. 请求方法:POST
  • 3. 请求所需参数:
  • data = {
    'f': 'auto', # 表示被翻译的语言是自动识别
    't': 'auto', # 表示翻译后的语言是自动识别
    'w': '人生苦短' # 要翻译的中文字符串
    }

     

  • 4. **pc端User-Agent**:`Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36`

4.2.4 代码实现

> 了解requests模块发送post请求的方法,以及分析过移动端的百度翻译之后,我们来完成代码

import requests
import json


class King(object):
    def __init__(self, word):
        self.url = "http://fy.iciba.com/ajax.php?a=fy"
        self.word = word
        self.headers = {
        "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36"}
        self.post_data = {
            "f": "auto",
            "t": "auto",
            "w": self.word
        }


    def get_data(self):
        response = requests.post(self.url, headers=self.headers, data=self.post_data)
        # 默认返回bytes类型,除非确定外部调用使用str才进行解码操作
        return response.content


    def parse_data(self, data):
    
    
        # 将json数据转换成python字典
        dict_data = json.loads(data)
        # 从字典中抽取翻译结果
        try:
            print(dict_data['content']['out'])
        except:
            print(dict_data['content']['word_mean'][0])


    def run(self):
        
        # url
        # headers
        # post——data
        # 发送请求
        data = self.get_data()
        # 解析
        self.parse_data(data)

if __name__ == '__main__':
    # king = King("人生苦短,及时行乐")
    king = King("China")
    king.run()
China")
king.run()

4.3 获取post参数中data的来源

  1. 固定值            抓包比较不便的值
  2. 输入值            抓包比较自身的变化
  3. 预设值-静态文件      需要提前从静态的HTML中获取
  4. 预设值-发请求          需要给指定的url发送请求
  5. 在客户端生成的         分析js,模拟生成数据

5. 利用requests.session进行状态保持

> requests模块中的Session类能够自动处理发送请求获取响应过程中产生的cookie,进而达到状态保持的目的。接下来我们就来学习它

5.1 requests.session的作用以及应用场景

- requests.session的作用
  - 自动处理cookie,即 **下一次请求会带上前一次的cookie**
- requests.session的应用场景
  - 自动处理连续的多次请求过程中产生的cookie

5.2 requests.session使用方法

> session实例在请求了一个网站后,对方服务器设置在本地的cookie会保存在session中,下一次再使用session请求对方服务器的时候,会带上前一次的cookie

session = requests.session() # 实例化session对象
response = session.get(url, headers, ...)
response = session.post(url, data, ...)

 

- session对象发送get或post请求的参数,与requests模块发送请求的参数完全一致

 5.3 课堂测试

> 使用requests.session来完成github登陆,并获取需要登陆后才能访问的页面

5.3.1 提示

1. 对github登陆以及访问登陆后才能访问的页面的整个完成过程进行抓包
2. 确定登陆请求的url地址、请求方法和所需的请求参数
  - 部分请求参数在别的url对应的响应内容中,可以使用re模块获取
3. 确定登陆后才能访问的页面的的url地址和请求方法
4. 利用requests.session完成代码

5.3.2 参考代码

import requests
import re


# 构造请求头字典
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36',
}

# 实例化session对象
session = requests.session()

# 访问登陆页获取登陆请求所需参数
response = session.get('https://github.com/login', headers=headers)
authenticity_token = re.search('name="authenticity_token" value="(.*?)" />', response.text).group(1) # 使用正则获取登陆请求所需参数

# 构造登陆请求参数字典
data = {
'commit': 'Sign in', # 固定值
'utf8': '', # 固定值
'authenticity_token': authenticity_token, # 该参数在登陆页的响应内容中
'login': input('输入github账号:'),
'password': input('输入github账号:')
}

# 发送登陆请求(无需关注本次请求的响应)
session.post('https://github.com/session', headers=headers, data=data)

# 打印需要登陆后才能访问的页面
response = session.get('https://github.com/1596930226', headers=headers)
print(response.text)
```

 



 

posted on 2020-11-14 15:36  paike123  阅读(385)  评论(0编辑  收藏  举报

导航