python抓取网页过程

准备过程

1.抓取网页的过程

准备好http请求(http request)->提交对应的请求->获得返回的响应(http response)->获得网页源码

2.GET还是POST

3.Headers(可选)

在某些情况下,直接抓取是被禁止的,此时需要提供一个Headers来告诉对方我不是机器人

例如:

1 def getHtml(url):
2     header={'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:14.0) Gecko/20100101 Firefox/14.0.1','Referer' : '******'}
3     request=urllib2.Request(url,None,header)
4     response=urllib2.urlopen(request)
5     text=response.read()
6     return text

4.Post Data(可选)

某些情况下是需要登录某网站的,此时需要提交帐号密码之类的,则需要使用Post Data

在IE中称为request body,chrome中成为Post Data

5.Cookie(可选)

一般来说,模拟登陆的时候往往会涉及到Cookie

6.其他(代理,最大超时时间timeout)

内容分析

1.对于html源码,调用BeautifulSoup

2.正则表达式

 

 

本文参考了http://www.crifan.com/summary_about_flow_process_of_fetch_webpage_simulate_login_website_and_some_notice/

可以说是一个简化版,想看的可以去看原文

PS:博主提供了很多计算机方面的资料,读后帮助很大,有兴趣的可以过去看看

posted @ 2015-04-17 15:35  wswang  阅读(1013)  评论(0编辑  收藏  举报