python3 requests 进行接口测试、爬虫使用总结

Requests 是第三方模块,如果要使用的话需要导入。Requests也可以说是urllib模块的升级版,使用上更方便。

这是使用urllib的例子。

import urllib.request
import json
url = 'http://www.weather.com.cn/data/sk/101190408.html'
res = urllib.request.urlopen(url)#发送请求
result = res.read().decode()#获取结果,结果是byte类型的需要decode()
print(json.loads(result))

 

下面是Requests 模块的使用。

支持的请求:

requests.get(‘https://github.com/timeline.json’) #GET请求
requests.post(“http:xxx.xx.com/post”) #POST请求
requests.put(“http:xxx.xx.com/put”) #PUT请求
requests.delete(“http:xxx.xx.com/delete”) #DELETE请求
requests.head(“http:xxx.xx.com/head”) #HEAD请求
requests.options(“http:xxx.xx.com/get”) #OPTIONS请求

发送GET请求:

import requests,json
url = 'http://api.xx.cn/api/user/stu_info?stu_name=hi'
req = requests.get(url)#发送get请求
print(req.text)#获取结果直接返回的就是json串
print(type(req.text)) #str
print(json.loads(req.text))#json转字典
print(req.json())#获取结果就是字典,只有返回的是json串的话才能用req.json()
print(type(req.json()))#dict

发送POST请求

url = 'http://api.xxx.cn/api/user/login'
data = {'username':'aa','passwd':'123'}
req = requests.post(url,data)#发送post请求,第一个参数是url,第二个参数是请求的数据
print(req.json())

发送格式为json的数据

url = 'http://api.xxx.cn/api/user/add_stu'
data = {
    "name":"aa",
    "grade":"bb",
    "phone":13512530000,
 
  }
req = requests.post(url,json=data)#发送post请求,第一个参数是url,第二个参数是请求的数据,发送的json的话就写json=data
print(req.json())

发送带cookie的请求

url = 'http://api.xx.cn/api/user/gold_add'
data = {'stu_id':231,'gold':'100'}
cookie = {'aa':'3d867b361afdaac1381b02ae746c7278'}#key 为登陆的用户名,value为sign的值
req = requests.post(url,data,cookies=cookie)#添加cookie
print(req.json())

发送的请求中带Header

url = 'http://api.xxx.cn/api/user/all_stu'
header = {'User-Agent':'Chrome'}
req = requests.get(url,headers = header)
print(req.json())

上传文件

url = 'http://api.xxx.cn/api/file/file_upload'
f = open(r'D:\aa.jpg','rb')#图片要指定以二进制方式打开
r =requests.post(url,files={'file':f})
print(r.json())

下载文件,图片,视频

url = 'https://images2017.cnblogs.com/blog/412654/201712/412654-20171213115213238-464712233.png'
r =requests.get(url)
print(r.status_code)#获取请求状态码
print(r.content)#获取返回结果二进制格式的
fw = open('bt.jpg','wb')#当前路径
#fw = open(r'd:\bt.jpg','wb')#指定绝对路径
fw.write(r.content)#将二进制格式内容写入文件
fw.close()

爬虫,把网页保存到本地

url = 'http://www.cnblogs.com/nancyzhu/p/8029994.html'
r = requests.get(url)
f = open('page.html','wb')
f.write(r.content)
f.close()

 

posted @ 2018-02-15 16:31  nancy05  阅读(1926)  评论(0编辑  收藏  举报