urllib模块

在Python2中,有urllib和urllib2这两个库来实现请求的发送。而在Python3中,就只有urllib这个库了。

首先,我们要知道,urllib库是python内置的HTTP请求库,不需要额外的安装包。它主要包含以下4个模块的内容。

  • request:最基本的http请求模块,用来模拟发送请求。
  • error:异常处理模块,如果出现错误,我们可以捕获这些错误,保证程序不会终止。
  • parse: 一个工具模块,提供了许多的url处理模块,如拆分、解析、合并等。
  • robotparser:主要用来识别网站的robot.txt文件,然后判断网站是否可爬(用的少)

 

一. 发送请求urllib.request模块

使用urllib.request模块,我们就可以发送请求,得到响应。

1.urlopen()

urllib.request.urlopen(urldata=None, [timeout, ]*cafile=Nonecapath=Nonecadefault=Falsecontext=None)

  • url:  需要打开的网址
  • data:Post提交的数据
  • timeout:设置网站的访问超时时间
  • context:必须是ssl.SSLContext类型,指定ssl设置
  • cafile和capath:指定CA证书和路径

直接用urllib.request模块的urlopen()获取页面,page的数据格式为bytes类型,需要decode()解码,转换成str类型。

from urllib import request

response = request.urlopen(r'http://python.org/') # <http.client.HTTPResponse object at 0x00000000048BC908> HTTPResponse类型
page = response.read()
page = page.decode('utf-8')

urlopen返回对象提供方法:

  • read() , readline() ,readlines() , fileno() , close() :对HTTPResponse类型数据进行操作
  • info():返回HTTPMessage对象,表示远程服务器返回的头信息
  • getcode():返回Http状态码。如果是http请求,200请求成功完成;404网址未找到
  • geturl():返回请求的url
Py2中的代码:

import urllib2
# url 作为Request()方法的参数,构造并返回一个Request对象
request = urllib2.Request("http://www.baidu.com")
# Request对象作为urlopen()方法的参数,发送给服务器并接收响应
response = urllib2.urlopen(request)
html = response.read()
print html

 

2.使用requests

  (1)在我们的第一个例子中,urlopen()参数就是一个URL地址。但是我们如果需要执行更加复杂的操作,例如增加HTTP报头,就必须创建一个requests实例来作为urloprn()的参数;而需要访问的url地址则作为requests实例的参数。

urllib.request.Request(url, data=None, headers={}, origin_req_host=None,unverifuable = False,method=None)

  • url:  需要打开的网址
  • data:Post提交的数据,必须是bytes(字节流)类型。使用parse.urldecode()
  • headers:字典,请求头
  • origin_req_host:请求方的host或者IP地址
  • unverifuable:表示这个请求时无法验证的,默认false,
  • methed:请求方法,如get/post等

使用request()来包装请求,再通过urlopen()获取页面。

PS:py2中为urllib.Request(url, data=None, headers={}, method=None)

用来包装头部的数据:

-         User-Agent :这个头部可以携带如下几条信息:浏览器名和版本号、操作系统名和版本号、默认语言

-         Referer:可以用来防止盗链,有一些网站图片显示来源http://***.com,就是检 查Referer来鉴定的

-         Connection:表示连接状态,记录Session的状态。

from urllib import request

url = r'http://www.lagou.com/zhaopin/Python/?labelWords=label'
headers = {
     'User-Agent': r'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
                   r'Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3',
     'Referer': r'http://www.lagou.com/zhaopin/Python/?labelWords=label',
     'Connection': 'keep-alive'
 }
req
= request.Request(url, headers=headers) page = request.urlopen(req).read().decode('utf-8') #page = page.decode('utf-8') print(page)

(2)添加更多的Header信息 

在 HTTP Request 中加入特定的 Header,来构造一个完整的HTTP请求消息。

可以通过调用Request.add_header() 添加/修改一个特定的header 也可以通过调用Request.get_header()来查看已有的header。

  • 添加一个特定的header
  • 随机添加/修改User-Agent
import urllib
url = "http://www.itcast.cn"
#IE 9.0 的 User-Agent
header = {"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;"} 
req = urllib.request.Request(url, headers = header)
#也可以通过调用Request.add_header() 添加/修改一个特定的header
req.add_header("Connection", "keep-alive")
也可以通过调用Request.get_header()来查看header信息
req.get_header(header_name="Connection")
response = urllib.request.urlopen(req)
print(response.code)     #可以查看响应状态码
html = response.read(),print(html)
import urllib2
import random

url = "http://www.itcast.cn"
ua_list = [
    "Mozilla/5.0 (Windows NT 6.1; ) Apple.... ",
    "Mozilla/5.0 (X11; CrOS i686 2268.111.0)... ",
    "Mozilla/5.0 (Macintosh; U; PPC Mac OS X.... ",
    "Mozilla/5.0 (Macintosh; Intel Mac OS... "
]
user_agent = random.choice(ua_list)
request = urllib2.Request(url)
#也可以通过调用Request.add_header() 添加/修改一个特定的header
request.add_header("User-Agent", user_agent)
# 第一个字母大写,后面的全部小写
request.get_header("User-agent") 
response = urllib2.urlopen(req)
html = response.read()
print html

 

3.post数据

urllib.request.urlopen(urldata=None, [timeout, ]*cafile=Nonecapath=Nonecadefault=Falsecontext=None)

urlopen()的data参数默认为None,当data参数不为空的时候,urlopen()提交方式为Post。

urllib.parse.urlencode(query, doseq=False, safe='', encoding=None, errors=None)

urlencode()主要作用就是将url附上要提交的数据。 

Post的数据必须是bytes或者iterable of bytes,不能是str,因此需要进行encode()编码

from urllib import request, parse

url = r'http://www.lagou.com/jobs/positionAjax.json?'
headers = {
    'User-Agent': r'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
                  r'Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3',
    'Referer': r'http://www.lagou.com/zhaopin/Python/?labelWords=label',
    'Connection': 'keep-alive'
  }
data = {
    'first': 'true',
    'pn': 1,
    'kd': 'Python'
  }

data = parse.urlencode(data).encode('utf-8')
req = request.Request(url, headers=headers, data=data)
page = request.urlopen(req).read()
page = page.decode('utf-8')

 

4.get 

  get请求一般用于我们向服务器获取数据,比如说如下练习。

from urllib import request,parse

def tiebaSpider(url, beginPage, endPage):
    """
        作用:负责处理url,分配每个url去发送请求
        url:需要处理的第一个url
        beginPage: 爬虫执行的起始页面
        endPage: 爬虫执行的截止页面
    """
    for page in range(beginPage, endPage + 1):
        pn = (page - 1) * 50
        filename = "" + str(page) + "页.html"
        # 组合为完整的 url,并且pn值每次增加50
        fullurl = url + "&pn=" + str(pn)
        #print fullurl
        # 调用loadPage()发送请求获取HTML页面
        html = loadPage(fullurl, filename)
        # 将获取到的HTML页面写入本地磁盘文件
        writeFile(html, filename)

def loadPage(url, filename):
    '''
        作用:根据url发送请求,获取服务器响应文件
        url:需要爬取的url地址
        filename: 文件名
    '''
    print("正在下载" + filename)
    headers = {"User-Agent": "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;"}

    req = request.Request(url, headers = headers)
    response = request.urlopen(req)
    return(response.read())

def writeFile(html, filename):
    """
        作用:保存服务器响应文件到本地磁盘文件里
        html: 服务器响应文件
        filename: 本地磁盘文件名
    """
    print("正在存储" + filename)
    with open(filename, 'wb') as f:
        f.write(html)
    print("-" * 20)

# 模拟 main 函数
if __name__ == "__main__":
    kw = input("请输入需要爬取的贴吧:")
    # 输入起始页和终止页,str转成int类型
    beginPage = int(input("请输入起始页:"))
    endPage = int(input("请输入终止页:"))
    url = "http://tieba.baidu.com/f?"
    key = parse.urlencode({"kw" : kw})
    # 组合后的url示例:http://tieba.baidu.com/f?kw=lol
    url = url + key
    tiebaSpider(url, beginPage, endPage)

 


5.验证 

有些网站在打开时,会弹出提示框,提示输入用户名和密码,验证成功后才能查看界面。如果我们要请求这样的页面,我们必须要借助HTTPBasicAuthHandler、build_opener来完成
from urllib.request import HTTPPasswordMgrWithDefaultRealm,HTTPBasicAuthHandler,build_opener

from urllib.error import URLError

u = 'uesrname'
p = 'password'
url = ''
p = HTTPPasswordMgrWithDefaultRealm()  # 建立该参数对象
p.add_password(None,url,u,p)  # 添加用户名和密码
auth_headler = HTTPBasicAuthHandler(p)  # 创建一个处理验证的handler
opener = build_opener(auth_headler)  # 使用build_opener创建一个opener
try:
    result = opener.open(url)
    html = result.read().decode('utf-8')
    print(html)
except URLError as e:
    print(e.reason)

 

6.代理

在爬取网页的时候,免不了要使用代理,要使用代理,可以使用ProxyHandler,其参数是一个字典,键是协议类型(http/https/ftp等),键值是代理的链接,可以添加多个代理。

实例1

from urllib.request import ProxyHandler,build_opener
from urllib.error import URLError

proxy_handler = ProxyHandler(  # 创建一个代理的handler
    {
        'http':'http://IP:port',
        'https':'https://IP:port',
    }
)
opener = build_opener(proxy_handler)  # 使用build_opener创建一个opener
try:
    result = opener.open('https://www.baidu.com')
    html = result.read().decode('utf-8')
    print(html)
except URLError as e:
    print(e.reason)

实例2

import urllib2
# 构建了两个代理Handler,一个有代理IP,一个没有代理IP
httpproxy_handler = urllib2.ProxyHandler({"http" : "124.88.67.81:80"})
nullproxy_handler = urllib2.ProxyHandler({})
 
proxySwitch = True #定义一个代理开关
 
# 通过 urllib2.build_opener()方法使用这些代理Handler对象,创建自定义opener对象
# 根据代理开关是否打开,使用不同的代理模式
if proxySwitch:  
    opener = urllib2.build_opener(httpproxy_handler)
else:
    opener = urllib2.build_opener(nullproxy_handler)
 
request = urllib2.Request("http://www.baidu.com/")
 
# 1. 如果这么写,只有使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理。
response = opener.open(request)
 
# 2. 如果这么写,就是将opener应用到全局,之后所有的,不管是opener.open()还是urlopen() 发送请求,都将使用自定义代理。
# urllib2.install_opener(opener)
# response = urlopen(request)
 
print response.read()
data = {
         'first': 'true',
         'pn': 1,
        'kd': 'Python'
     }
proxy = request.ProxyHandler({'http': '5.22.195.215:80'})  # 设置proxy
opener = request.build_opener(proxy)  # 挂载opener
request.install_opener(opener)  # 安装opener
data = parse.urlencode(data).encode('utf-8')
page = opener.open(url, data).read()
page = page.decode('utf-8')
return pag

  

 

二.异常处理urllib.error

在我们用urlopen或者opener.open方法发出一个请求时,如果因为网络等问题不能处理这个请求,就会产生错误。

1)URLError

URLError产生的原因主要有:

 -     1.没有网络连接

 -     2.服务器连接失败  

 -     3.找不到指定的服务器

可以用try except 语句来获取相应的异常。

from urllib import request,parse,error
url = 'http://www.1232435erfefre.com'
req = request.Request(url)
try:
    resp = request.urlopen(req)
except error.URLError as e:
    print(e)
>>><urlopen error [Errno 11004] getaddrinfo failed>

 

2)HTTPError 

HTTPError是URLError的子类,我们每发出一个请求,服务器都会对应一个response应答,其中包含一个数字“响应状态码”。

如果urlopen或opener.open不能处理的,会产生一个HTTPError,对应相应的状态码,HTTP状态码表示HTTP协议所返回的响应的状态。

注意, 100-299范围的号码表示成功,所以我们只能看到400-599的错误号码。

from urllib import request,parse,error

#url1 = 'http://www.1232435erfefre.com'
url2 = 'http://blog.baidu.com/itcast'
'''
req = request.Request(url2)
try:
    resp = request.urlopen(req)
except error.HTTPError as e:
    print(e,e.code)

 

3)改进版 

由于HTTPError的父类是URLError,所以父类的异常都可以写在子类异常的后面,所以代码可以修改如下。

from urllib import request,parse,error

#url1 = 'http://www.1232435erfefre.com'
url2 = 'http://blog.baidu.com/itcast'

req = request.Request(url2)
try:
    resp = request.urlopen(req)
except error.HTTPError as e:
    print(e.code())
    print(e)
except error.URLError as e:
    print(e.reason,e)
else:
    print('hehe')

 

4)http服务器响应状态

 

1xx:信息
100 Continue
服务器仅接收到部分请求,但是一旦服务器并没有拒绝该请求,客户端应该继续发送其余的请求。
101 Switching Protocols
服务器转换协议:服务器将遵从客户的请求转换到另外一种协议。
 
 
 
2xx:成功
200 OK
请求成功(其后是对GET和POST请求的应答文档)
201 Created
请求被创建完成,同时新的资源被创建。
202 Accepted
供处理的请求已被接受,但是处理未完成。
203 Non-authoritative Information
文档已经正常地返回,但一些应答头可能不正确,因为使用的是文档的拷贝。
204 No Content
没有新文档。浏览器应该继续显示原来的文档。如果用户定期地刷新页面,而Servlet可以确定用户文档足够新,这个状态代码是很有用的。
205 Reset Content
没有新文档。但浏览器应该重置它所显示的内容。用来强制浏览器清除表单输入内容。
206 Partial Content
客户发送了一个带有Range头的GET请求,服务器完成了它。
 
 
 
3xx:重定向
300 Multiple Choices
多重选择。链接列表。用户可以选择某链接到达目的地。最多允许五个地址。
301 Moved Permanently
所请求的页面已经转移至新的url。
302 Moved Temporarily
所请求的页面已经临时转移至新的url。
303 See Other
所请求的页面可在别的url下被找到。
304 Not Modified
未按预期修改文档。客户端有缓冲的文档并发出了一个条件性的请求(一般是提供If-Modified-Since头表示客户只想比指定日期更新的文档)。服务器告诉客户,原来缓冲的文档还可以继续使用。
305 Use Proxy
客户请求的文档应该通过Location头所指明的代理服务器提取。
306 Unused
此代码被用于前一版本。目前已不再使用,但是代码依然被保留。
307 Temporary Redirect
被请求的页面已经临时移至新的url。
 
 
 
4xx:客户端错误
400 Bad Request
服务器未能理解请求。
401 Unauthorized
被请求的页面需要用户名和密码。
401.1
登录失败。
401.2
服务器配置导致登录失败。
401.3
由于 ACL 对资源的限制而未获得授权。
401.4
筛选器授权失败。
401.5
ISAPI/CGI 应用程序授权失败。
401.7
访问被 Web 服务器上的 URL 授权策略拒绝。这个错误代码为 IIS 6.0 所专用。
402 Payment Required
此代码尚无法使用。
403 Forbidden
对被请求页面的访问被禁止。
403.1
执行访问被禁止。
403.2
读访问被禁止。
403.3
写访问被禁止。
403.4
要求 SSL。
403.5
要求 SSL 128403.6
IP 地址被拒绝。
403.7
要求客户端证书。
403.8
站点访问被拒绝。
403.9
用户数过多。
403.10
配置无效。
403.11
密码更改。
403.12
拒绝访问映射表。
403.13
客户端证书被吊销。
403.14
拒绝目录列表。
403.15
超出客户端访问许可。
403.16
客户端证书不受信任或无效。
403.17
客户端证书已过期或尚未生效。
403.18
在当前的应用程序池中不能执行所请求的 URL。这个错误代码为 IIS 6.0 所专用。
403.19
不能为这个应用程序池中的客户端执行 CGI。这个错误代码为 IIS 6.0 所专用。
403.20
Passport 登录失败。这个错误代码为 IIS 6.0 所专用。
404 Not Found
服务器无法找到被请求的页面。
404.0
没有找到文件或目录。
404.1
无法在所请求的端口上访问 Web 站点。
404.2
Web 服务扩展锁定策略阻止本请求。
404.3
MIME 映射策略阻止本请求。
405 Method Not Allowed
请求中指定的方法不被允许。
406 Not Acceptable
服务器生成的响应无法被客户端所接受。
407 Proxy Authentication Required
用户必须首先使用代理服务器进行验证,这样请求才会被处理。
408 Request Timeout
请求超出了服务器的等待时间。
409 Conflict
由于冲突,请求无法被完成。
410 Gone
被请求的页面不可用。
411 Length Required
"Content-Length" 未被定义。如果无此内容,服务器不会接受请求。
412 Precondition Failed
请求中的前提条件被服务器评估为失败。
413 Request Entity Too Large
由于所请求的实体的太大,服务器不会接受请求。
414 Request-url Too Long
由于url太长,服务器不会接受请求。当post请求被转换为带有很长的查询信息的get请求时,就会发生这种情况。
415 Unsupported Media Type
由于媒介类型不被支持,服务器不会接受请求。
416 Requested Range Not Satisfiable
服务器不能满足客户在请求中指定的Range头。
417 Expectation Failed
执行失败。
423
锁定的错误。
 
 
 
5xx:服务器错误
500 Internal Server Error
请求未完成。服务器遇到不可预知的情况。
500.12
应用程序正忙于在 Web 服务器上重新启动。
500.13
Web 服务器太忙。
500.15
不允许直接请求 Global.asa。
500.16
UNC 授权凭据不正确。这个错误代码为 IIS 6.0 所专用。
500.18
URL 授权存储不能打开。这个错误代码为 IIS 6.0 所专用。
500.100
内部 ASP 错误。
501 Not Implemented
请求未完成。服务器不支持所请求的功能。
502 Bad Gateway
请求未完成。服务器从上游服务器收到一个无效的响应。
502.1
CGI 应用程序超时。 ·
502.2
CGI 应用程序出错。
503 Service Unavailable
请求未完成。服务器临时过载或当机。
504 Gateway Timeout
网关超时。
505 HTTP Version Not Supported
服务器不支持请求中指明的HTTP协议版本

 

 

 

三.解析链接urllib.parse模块

1.urlparse()

该方法实现url的识别和分段,将url分成6个部分,分别是scheme(协议),netloc(域名)、path(访问路径)、params(参数)、query(查询条件)、fragment(位置)
from urllib import parse

resule = parse.urlparse('https://blog.csdn.net/pleasecallmewhy/article/details/8924889')
print(resule)
# 结果:
'''
ParseResult(
  scheme='https',
    netloc='blog.csdn.net',
    path='/pleasecallmewhy/article/details/8924889',
    params='',
    query='',
    fragment=''
)
'''

 

2.urlunparse()

    接受一个可迭代对象,如列表、元祖或者特定的数据结构,长度必须是6。和urlparse()方法的功能相反。

from urllib import parse

dt = ['http','www.baidu.com','ondex.html','user','a=8','comment']
print(parse.urlunparse(dt))
# http://www.baidu.com/ondex.html;user?a=8#comment

 

3.urlsplit()

这个方法和urlparse()方法非常的类似,只不过不在单独的解析params这一部分,只返回5个结果,params会和path合并。实例如下:

from urllib import parse

resule = parse.urlsplit('https://blog.csdn.net/pleasecallmewhy/article/details/8924889')
print(resule)
# 结果
'''
SplitResult(
    scheme='https', 
    netloc='blog.csdn.net', 
    path='/pleasecallmewhy/article/details/8924889', 
    query='', 
    fragment='')
'''

 

4.urlunsplit()

这个方法和urlinparse()方法非常的类似,也是将连接拼接成完整url,闯入的参数是一个可迭代对象,唯一区别是长度为5。

from urllib import parse

dt = ['http','www.baidu.com','ondex.html','user','a=8',]
print(parse.urlunsplit(dt))
# http://www.baidu.com/ondex.html?user#a=8

 

5. urljoin()

学习了前面的方法,我们已经可以完成连接的拼接护着拆分,不过前提是必须要有特定的长度。此外,还可以使用urljoin()方法。我们可以提供一个base_url作为第一个参数,新的链接作为第二个参数,该方法会解析base_url中的scheme、netloc和path这3个参数的内容对新链接缺失的部分进行补充,如果存在,就用新链接的内容。最后返回结果。

from urllib import parse

print(parse.urljoin('http://www.baidu.com/','http://www.baidu.com/ondex.html?user#a=8'))
# http://www.baidu.com/ondex.html?user#a=8

 

6. urlencode()

此方法是最常用的方法,它将一个字典序列化为为get请求参数,在构造get请求参数是非常有用。

from urllib import parse

url = 'http://www.baidu.com/'
data = {'name':'wl','age':23}
url_page = url + parse.urlencode(data)
print(url_page)
# http://www.baidu.com/name=wl&age=23

 

7.parse_qs()

有了序列化,那肯定hui有反序列化。将get请求中的数据转化为字典。

from urllib import parse

url = 'http://www.baidu.com/name=wl&age=23'
print(parse.parse_qs(url))
# {'age': ['23'], 'http://www.baidu.com/name': ['wl']}

 

8. parse_qsl()

    用于将参数转化为元祖组成的列表。

from urllib import parse

url = 'http://www.baidu.com/name=wl&age=23'
print(parse.parse_qsl(url))
# [('http://www.baidu.com/name', 'wl'), ('age', '23')]

 

9.quote()

该方法将内容转化为URL编码的格式。URL中有中文时,有时可能会有乱码的问题,此时可以使用该方法。

from urllib import parse

url = 'http://www.baidu.com/name=' + parse.quote('张三')
print(url)
# http://www.baidu.com/name=%E5%BC%A0%E4%B8%89

 

10.unquote()

该方法将URL编码格式的内容还原。方便的实现解码。

from urllib import parse

url = 'http://www.baidu.com/name=%E5%BC%A0%E4%B8%89'
print(parse.unquote(url))
# http://www.baidu.com/name=张三
posted @ 2018-10-25 19:58  炫风真是风  阅读(212)  评论(0编辑  收藏  举报