【Python】使用urllib2打开网页的三种方法(Python2)
python2才有urllib2模块,python3把urllib和urllib2封装成了urllib模块
使用urllib2打开网页的三种方法,摘自:https://www.cnblogs.com/z-x-y/p/9402023.html
#coding:utf-8 import urllib2 import cookielib url="http://www.baidu.com" print '方法 1' response1=urllib2.urlopen(url) print response1.getcode()#验证打开网页是否成功,成功返回200 print len(response1.read())#打印读取网页长度 print'方法 2' request=urllib2.Request(url) request.add_header("user-agent","Mozilla/5.0")#伪装成浏览器 response2=urllib2.urlopen(request) print response2.getcode()#验证打开网页是否成功,成功返回200 print len(response2.read())#打印读取网页长度 print '方法 3' cj=cookielib.CookieJar() opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) urllib2.install_opener(opener) response3=urllib2.urlopen(url) print response3.getcode()#验证打开网页是否成功,成功返回200 print cj print len(response3.read())#打印读取网页长度
Python2中的urllib、urllib2与Python3中的urllib以及第三方模块requests,摘自:https://www.cnblogs.com/jieran/p/8296617.html
在python2中,urllib和urllib2都是接受URL请求的相关模块,但是提供了不同的功能。两个最显著的不同如下:
1、urllib2可以接受一个Request类的实例来设置URL请求的headers,例如:
req = urllib2.Request( [python] view plain copy url=url, data=postdata, headers=headers
) result = urllib2.urlopen(req)
我们知道,HTTP是无连接的状态协议,但是客户端和服务器端需要保持一些相互信息,比如cookie,有了cookie,服务器才能知道刚才是这个用户登录了网站,才会给予客户端访问一些页面的权限。所以我们需要保存cookie,之后附带cookie再来访问网站,才能够达到效果。这里就需要Python的cookielib和urllib2等的配合,将cookielib绑定到urllib2在一起,就能够在请求网页的时候附带cookie。在构造req请求之前可以获取一个保存cookies的对象,并把该对象和http处理器、http的handler资源以及urllib2的对象绑定在一起:
1 cj = cookielib.LWPCookieJar() 2 cookie_support = urllib2.HTTPCookieProcessor(cj) 3 # 创建一个opener,将保存了cookie的http处理器,还有设置一个handler用于处理http的URL的打开 4 opener = urllib2.build_opener(cookie_support, urllib2.HTTPHandler) 5 # 将包含了cookie、http处理器、http的handler的资源和urllib2对象板顶在一起 6 urllib2.install_opener(opener)
2、urllib仅可以接受URL。这意味着,你不可以伪装你的User Agent字符串等。
但是urllib提供urlencode方法用来GET查询字符串的产生,而urllib2没有。这是就是为何urllib常和urllib2一起使用的原因,如下:
postdata = urllib.urlencode(postdata)
(把字典形式的postdata编码一下)
Tip: if you are planning to do HTTP stuff only, check out httplib2, it is much better than httplib or urllib or urllib2.
》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》
下面说说Python3x中的urllib包、http包以及其他比较好使的第三方包
1、Python3 urllib、http
Python3不像2x中酷虎的和服务器模块结构散乱,Python3中把这些打包成为了2个包,就是http与urllib,详解如下:
http会处理所有客户端--服务器http请求的具体细节,其中:
(1)client会处理客户端的部分
(2)server会协助你编写Python web服务器程序
(3)cookies和cookiejar会处理cookie,cookie可以在请求中存储数据
使用cookiejar示例可以在前几篇博客中基于Python3的爬虫中找到示例,如下:
1 import http.cookiejar 2 import urllib.request 3 import urllib.parse</span></span> 4 def getOpener(head): 5 # deal with the Cookies 6 cj = http.cookiejar.CookieJar() 7 pro = urllib.request.HTTPCookieProcessor(cj) 8 opener = urllib.request.build_opener(pro) 9 header = [] 10 for key, value in head.items(): 11 elem = (key, value) 12 header.append(elem) 13 opener.addheaders = header 14 return opener
urllib是基于http的高层库,它有以下三个主要功能:
(1)request处理客户端的请求
(2)response处理服务端的响应
(3)parse会解析url
下面是使用Python3中urllib来获取资源的一些示例:
1 1、最简单 2 import urllib.request 3 response = urllib.request.urlopen('http://python.org/') 4 html = response.read()
1 2、使用 Request 2 import urllib.request 3 req = urllib.request.Request('http://python.org/') 4 response = urllib.request.urlopen(req) 5 the_page = response.read()
1 3、发送数据 2 import urllib.parse 3 import urllib.request 4 url = '" 5 values = { 6 'act' : 'login', 7 'login[email]' : '', 8 'login[password]' : '' 9 } 10 data = urllib.parse.urlencode(values) 11 req = urllib.request.Request(url, data) 12 req.add_header('Referer', 'http://www.python.org/') 13 response = urllib.request.urlopen(req) 14 the_page = response.read() 15 print(the_page.decode("utf8"))
1 4、发送数据和header 2 import urllib.parse 3 import urllib.request 4 url = '' 5 user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' 6 values = { 7 'act' : 'login', 8 'login[email]' : '', 9 'login[password]' : '' 10 } 11 headers = { 'User-Agent' : user_agent } 12 data = urllib.parse.urlencode(values) 13 req = urllib.request.Request(url, data, headers) 14 response = urllib.request.urlopen(req) 15 the_page = response.read() 16 print(the_page.decode("utf8"))
1 5、http 错误 2 import urllib.request 3 req = urllib.request.Request(' ') 4 try: 5 urllib.request.urlopen(req) 6 except urllib.error.HTTPError as e: 7 print(e.code) 8 print(e.read().decode("utf8"))
1 6、异常处理1 2 from urllib.request import Request, urlopen 3 from urllib.error import URLError, HTTPError 4 req = Request("http://www..net /") 5 try: 6 response = urlopen(req) 7 except HTTPError as e: 8 print('The server couldn't fulfill the request.') 9 print('Error code: ', e.code) 10 except URLError as e: 11 print('We failed to reach a server.') 12 print('Reason: ', e.reason) 13 else: 14 print("good!") 15 print(response.read().decode("utf8"))
1 7、异常处理2 2 from urllib.request import Request, urlopen 3 from urllib.error import URLError 4 req = Request("http://www.Python.org/") 5 try: 6 response = urlopen(req) 7 except URLError as e: 8 if hasattr(e, 'reason'): 9 print('We failed to reach a server.') 10 print('Reason: ', e.reason) 11 elif hasattr(e, 'code'): 12 print('The server couldn't fulfill the request.') 13 print('Error code: ', e.code) 14 else: 15 print("good!") 16 print(response.read().decode("utf8"))
1 8、HTTP 认证 2 import urllib.request 3 # create a password manager 4 password_mgr = urllib.request.HTTPPasswordMgrWithDefaultRealm() 5 # Add the username and password. 6 # If we knew the realm, we could use it instead of None. 7 top_level_url = "" 8 password_mgr.add_password(None, top_level_url, 'rekfan', 'xxxxxx') 9 handler = urllib.request.HTTPBasicAuthHandler(password_mgr) 10 # create "opener" (OpenerDirector instance) 11 opener = urllib.request.build_opener(handler) 12 # use the opener to fetch a URL 13 a_url = "" 14 x = opener.open(a_url) 15 print(x.read()) 16 # Install the opener. 17 # Now all calls to urllib.request.urlopen use our opener. 18 urllib.request.install_opener(opener) 19 a = urllib.request.urlopen(a_url).read().decode('utf8') 20 print(a)
1 9、使用代理 2 import urllib.request 3 proxy_support = urllib.request.ProxyHandler({'sock5': 'localhost:1080'}) 4 opener = urllib.request.build_opener(proxy_support) 5 urllib.request.install_opener(opener) 6 a = urllib.request.urlopen("").read().decode("utf8") 7 print(a)
1 10、超时 2 import socket 3 import urllib.request 4 # timeout in seconds 5 timeout = 2 6 socket.setdefaulttimeout(timeout) 7 # this call to urllib.request.urlopen now uses the default timeout 8 # we have set in the socket module 9 req = urllib.request.Request('') 10 a = urllib.request.urlopen(req).read() 11 print(a)
上面例子大概把常用的一些情况都罗列出来了,其中对异常的处理要严格按照:
try...exceptA...exceptB...except...else...finally...
的语法格式来写,详情请参考我的另一篇相关博文
》》》》》》》》》》》》》》》》》》》》》》》》
2、除了使用官方标准库的urllib,我们可以使用更好用的第三方模块,如requests
Requests 完全满足如今网络的需求,其功能有以下:
- 国际化域名和 URLs
- Keep-Alive & 连接池
- 持久的 Cookie 会话
- 类浏览器式的 SSL 加密认证
- 基本/摘要式的身份认证
- 优雅的键/值 Cookies
- 自动解压
- Unicode 编码的响应体
- 多段文件上传
- 连接超时
- 支持
.netrc
- 适用于 Python 2.6—3.4
- 线程安全
附加:
在python2.x中raw_input( )和input( ),两个函数都存在,其中区别为
raw_input( )---将所有输入作为字符串看待,返回字符串类型
input( )-----只能接收“数字”的输入,在对待纯数字输入时具有自己的特性,它返回所输入的数字的类型( int, float )
在python3.x中raw_input( )和input( )进行了整合,去除了raw_input( ),仅保留了input( )函数,
其接收任意任性输入,将所有输入默认为字符串处理,并返回字符串类型。

赠人玫瑰
手留余香
我们曾如此渴望命运的波澜,到最后才发现:人生最曼妙的风景,竟是内心的淡定与从容……我们曾如此期盼外界的认可,到最后才知道:世界是自己的,与他人毫无关系!-杨绛先生
如果,您希望更容易地发现我的新博客,不妨点击一下绿色通道的
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?