Python爬虫学习笔记(二)——requests库的使用

准备工作

requests库不是python自带的库,可以用pip安装。在使用时导入requests即可。

基本用法

GET请求

r = requests.get(url)
print(r.text)

其中,网页返回的内容是json格式的字符串类型,所以可以直接调用json()方法得到字典格式的内容
print(r.json())
此外,如果需要附加额外的信息,可以用params这个参数,示例如下:

data = {
    'name': 'germey'
    'age': 22
}
url = 'http://httpbin.org/get'
r = requests.get(url, params=data)
print(r.text)

这样子,请求的链接就被自动构造成了'http://httpbin.org/get?age=22&name=germey'
浏览器头也是可以用headers这个参数来实现,代码如下:
r = requests.get(url, headers = headers)

POST请求

实现POST请求类似于GET请求,示例如下:

data = {'name': 'germey', 'age': '22'}
r = requests.post(url, data = data)
print(r.text)

响应

发送请求之后,得到的自然是响应。常用的获取响应信息的方法和属性有下面几个:

r = requests.get(url)
print(r.status_code)
print(r.headers)
print(r.cookies)
print(r.history)

高级用法

Cookies

获取Cookies

r = requests.get(url)
print(r.cookies)

如果需要使用Cookies的话,只需要将Cookies设置到Headers里面,然后发送请求即可,十分简单

会话维持

在requests中,如果直接用get()或post()等方法,相当于打开了不同的会话;如果要维持相同的会话,需要用Session对象,示例如下:

s = requests.Session()
s.get(url)

代理设置

proxies = {
    "http": url_http,
    "https": url_https,
}
requests.get(url, proxies = proxies)

SSL证书验证

requests会检查SSL证书,可以使用verify参数来控制是否检查证书,默认为开启。何时需要关掉呢?举个例子。
例如访问12306官网时,会出现证书验证错误的结果,因为12306的证书没有被官方CA机构信任,所以会提示错误SSLError,代码如下:

r = requests.get('http://www.12306.cn', verify=False)
print(r.status_code)

超时设置

r = requests.get(url, timeout=1)

身份认证

r = requests.get(url, auth=(username, password))

总结

requests库比urllib库简便了许多,不过还有些内容我没有完全理解,例如Prepared Request,这些都需要日后的不断练习。

posted @ 2018-09-02 21:26  HackHarry  阅读(245)  评论(0编辑  收藏  举报