python爬虫基础
urllib库的基本使用
所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 在Python中有很多库可以用来抓取网页,我们先学习urllib
。在Python 2中,有urllib和urllib2两个库来实现请求的发送。而在Python 3中,已经不存在urllib2这个库了,统一为urllib。
使用urllib的request
模块,我们可以方便地实现请求的发送并得到响应。
urlopen
# urllib.py # 导入urllib 库 import urllib.request # 向指定的url发送请求,并返回服务器响应的类文件对象 response = urllib.request.urlopen("http://www.baidu.com") # 类文件对象支持 文件对象的操作方法,如read()方法读取文件全部内容,返回字符串 html = response.read() # 打印字符串 print (html)
执行写的python代码,将打印结果。
wljdeMacBook-Pro:~ wlj$ python3 urllib.py
实际上,如果我们在浏览器上打开百度主页, 右键选择“查看源代码”,你会发现,跟我们刚才打印出来的是一模一样。也就是说,上面的4行代码就已经帮我们把百度的首页的全部代码爬了下来。
一个基本的url请求对应的python代码真的非常简单。
Request
在我们第一个例子里,urlopen()的参数就是一个url地址;
但是如果需要执行更复杂的操作,比如增加HTTP报头,必须创建一个 Request 实例来作为urlopen()的参数;而需要访问的url地址则作为 Request 实例的参数。
我们编辑urllib.py
# urllib.py import urllib.request # url 作为Request()方法的参数,构造并返回一个Request对象 request = urllib.request.Request("http://www.baidu.com") # Request对象作为urlopen()方法的参数,发送给服务器并接收响应 response = urllib.request.urlopen(request) html = response.read() print (html)
运行结果是完全一样的。
新建Request实例,除了必须要有 url 参数之外,还可以设置另外两个参数:
-
data(默认空):是伴随 url 提交的数据(比如要post的数据),同时 HTTP 请求将从 "GET"方式 改为 "POST"方式。
-
headers(默认空):是一个字典,包含了需要发送的HTTP报头的键值对。
添加更多的Header信息
# urllib.py import urllib.request url = "https://www.cnblogs.com/wanglinjie" #IE 9.0 的 User-Agent header = {"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;"} request = urllib.request.Request(url, headers = header) #也可以通过调用Request.add_header() 添加/修改一个特定的header request.add_header("Connection", "keep-alive") # 也可以通过调用Request.get_header()来查看header信息 # request.get_header(header_name="Connection") response = urllib.request.urlopen(url) print (response.code) #可以查看响应状态码 html = response.read() print (html)
urllib.urlencode()
urllib 和 urllib2 都是接受URL请求的相关模块,但是提供了不同的功能。两个最显著的不同如下:
-
urllib 仅可以接受URL,不能创建 设置了headers 的Request 类实例;
-
但是 urllib 提供
urlencode
方法用来GET查询字符串的产生,而 urllib2 则没有。(这是 urllib 和 urllib2 经常一起使用的主要原因) -
编码工作使用urllib的
urlencode()
函数,帮我们将key:value
这样的键值对转换成"key=value"
这样的字符串,解码工作可以使用urllib的unquote()
函数。(注意,不是urllib2.urlencode() )
# IPython2 中的测试结果 In [1]: import urllib In [2]: word = {"wd" : "王琳杰博客园"} # 通过urllib.urlencode()方法,将字典键值对按URL编码转换,从而能被web服务器接受。 In [3]: urllib.urlencode(word) Out[3]: "wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2" # 通过urllib.unquote()方法,把 URL编码字符串,转换回原先字符串。 In [4]: print urllib.unquote("wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2") wd=王琳杰博客园
python3中
# urllib.py from urllib import parse word = {"wd" : "王琳杰博客园"} data = parse.urlencode(word) print(data)
# urllib.py import urllib.parse data = urllib.parse.unquote("%E7%8E%8B%E7%90%B3%E6%9D%B0%E5%8D%9A%E5%AE%A2%E5%9B%AD") print(data)
from urllib.parse import urlencode params = { 'wd': '王琳杰', 'pn': '10' } base_url = 'http://www.baidu.com/s?' url = base_url + urlencode(params) print(url)
这里首先声明了一个字典来将参数表示出来,然后调用urlencode()
方法将其序列化为GET请求参数。
有了序列化,必然就有反序列化。如果我们有一串GET请求参数,利用parse_qs()
方法,就可以将它转回字典,示例如下:
from urllib.parse import parse_qs query = 'wd=王琳杰&pn=10' print(parse_qs(query))
运行结果如下:
{'wd': ['王琳杰'], 'pn': ['10']}
quote()
该方法可以将内容转化为URL编码的格式。URL中带有中文参数时,有时可能会导致乱码的问题,此时用这个方法可以将中文字符转化为URL编码,示例如下:
from urllib.parse import quote keyword = '壁纸' url = 'https://www.baidu.com/s?wd=' + quote(keyword) print(url)
这里我们声明了一个中文的搜索文字,然后用quote()
方法对其进行URL编码,最后得到的结果如下:
https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8
unquote()
有了quote()
方法,当然还有unquote()
方法,它可以进行URL解码,示例如下:
from urllib.parse import quote keyword = '壁纸' url = 'https://www.baidu.com/s?wd=' + quote(keyword) print(url)
应该得到URL编码后的结果
https://www.baidu.com/s?wd=壁纸
但是实测结果为
https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8
Get方式
GET请求一般用于我们向服务器获取数据,比如说,我们用百度搜索:https://www.baidu.com/s?wd=王琳杰博客园
浏览器的url会跳转成如图所示:
https://www.baidu.com/s?wd=%E7%8E%8B%E7%90%B3%E6%9D%B0%E5%8D%9A%E5%AE%A2%E5%9B%AD
在其中我们可以看到在请求部分里,http://www.baidu.com/s?
之后出现一个长长的字符串,其中就包含我们要查询的关键词,于是我们可以尝试用默认的Get方式来发送请求。
python2中:
# urllib2_get.py import urllib #负责url编码处理 import urllib2 url = "http://www.baidu.com/s" word = {"wd":"王琳杰博客园"} word = urllib.urlencode(word) #转换成url编码格式(字符串) newurl = url + "?" + word # url首个分隔符就是 ? headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"} request = urllib2.Request(newurl, headers=headers) response = urllib2.urlopen(request) print response.read()
python3中:
# urllib.py from urllib import parse import urllib.request url = "http://www.baidu.com/s" word = {"wd" : "王琳杰博客园"} data = parse.urlencode(word) # 提交类型不能为str,需要为byte类型 newurl = url + "?" + data # url首个分隔符就是 ? headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"} request = urllib.request.Request(url, headers = headers) response = urllib.request.urlopen(url) print (response.code) #可以查看响应状态码 html = response.read() print (html)
POST方式:
上面我们说了Request请求对象的里有data参数,它就是用在POST里的,我们要传送的数据就是这个参数data,data是一个字典,里面要匹配键值对。
有道词典翻译网站:
输入测试数据,再通过使用Fiddler观察,其中有一条是POST请求,而向服务器发送的请求数据并不是在url里,那么我们可以试着模拟这个POST请求。
from urllib import parse import urllib.request # POST请求的目标URL url = "http://fanyi.youdao.com/" headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"} formdata = { "type":"AUTO", "i":"i love python", "doctype":"json", "xmlVersion":"1.8", "keyfrom":"fanyi.web", "ue":"UTF-8", "action":"FY_BY_ENTER", "typoResult":"true" } data = parse.urlencode(formdata).encode('utf-8') # 提交类型不能为str,需要为byte类型 request = urllib.request.Request(url, data = data, headers = headers) response = urllib.request.urlopen(request) print (response.read())