Python爬虫实战一之爬取糗事百科段子

参考资料:http://cuiqingcai.com/990.html

1.非面向对象模式

完整代码1:

# -*- coding: utf-8 -*-
import re
import urllib2
import urllib
import thread
import time

page = 1
url = 'http://www.qiushibaike.com/hot/page/' + str(page)
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = { 'User-Agent' : user_agent }
try:
request = urllib2.Request(url,headers = headers)
response = urllib2.urlopen(request)
content = response.read().decode('utf-8')
pattern = re.compile('<div.*?class="author.*?<h2>(.*?)</h2>.*?<div.*?class="content.*?<span>(.*?)</span>.*?'
+'<span.*?class="stats-vote">.*?<i.*?class="number">(.*?)</i>.*?'
+'<span.*?class="dash">.*?<i.*?class="number">(.*?)</i>',re.S)
items = re.findall(pattern, content)
for item in items:
print item[0],item[1],item[2],item[3]
except urllib2.URLError, e:
if hasattr(e,"code"):
print e.code
if hasattr(e,"reason"):
print e.reason
运行结果如下:

注释1:糗事百科是不需要登录的,所以也没必要用到Cookie。

 

2.面向对象模式

上面代码是最核心的部分,下面我们要达到的目的是:

按下回车,读取一个段子,显示出段子的发布人,发布内容,点赞个数以及评论数。

另外我们需要设计面向对象模式,引入类和方法,将代码做一下优化和封装

完整代码2

# -*- coding: utf-8 -*-
import re
import urllib2
import urllib
import thread
import time

# 糗事百科爬虫类
class QSBK:
# 初始化方法,定义一些变量
def __init__(self):
self.pageIndex = 1
self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
# 初始化headers
self.headers = {'User-Agent': self.user_agent}
# 存放段子的变量,每一个元素是每一页的段子们
self.stories = []
# 存放程序是否继续运行的变量
self.enable = False

# 传入某一页的索引获得页面代码
def getPage(self, pageIndex):
try:
url = 'http://www.qiushibaike.com/hot/page/' + str(pageIndex)
# 构建请求的request
request = urllib2.Request(url, headers=self.headers)
# 利用urlopen获取页面代码
response = urllib2.urlopen(request)
# 将页面转化为UTF-8编码
pageCode = response.read().decode('utf-8')
return pageCode
except urllib2.URLError, e:
if hasattr(e, "reason"):
print u"连接糗事百科失败,错误原因", e.reason
return None

# 传入某一页代码,返回本页的段子列表
def getPageItems(self, pageIndex):
pageCode = self.getPage(pageIndex)
if not pageCode:
print "页面加载失败...."
return None
print item[0], item[1], item[2], item[3]

pattern = re.compile('<div.*?class="author.*?<h2>(.*?)</h2>.*?<div.*?class="content.*?<span>(.*?)</span>.*?'
+ '<span.*?class="stats-vote">.*?<i.*?class="number">(.*?)</i>.*?'
+ '<span.*?class="dash">.*?<i.*?class="number">(.*?)</i>', re.S)
items = re.findall(pattern,pageCode)
# 用来存储每页的段子们
pageStories = []
# 遍历正则表达式匹配的信息
for item in items:
replaceBR = re.compile('<br/>')
text = re.sub(replaceBR, "\n", item[1])
# item[0]是一个段子的发布者,item[1]是内容,item[2]点赞数,item[3]评论数
pageStories.append([item[0].strip(), text.strip(), item[2].strip(), item[3].strip()])
return pageStories
# 加载并提取页面的内容,加入到列表中
def loadPage(self):
# 如果当前未看的页数少于2页,则加载新一页
if self.enable == True:
if len(self.stories) < 2:
# 获取新一页
pageStories = self.getPageItems(self.pageIndex)
# 将该页的段子存放到全局list中
if pageStories:
self.stories.append(pageStories)
# 获取完之后页码索引加一,表示下次读取下一页
self.pageIndex += 1

# 调用该方法,每次敲回车打印输出一个段子
def getOneStory(self, pageStories, page):
# 遍历一页的段子
for story in pageStories:
# 等待用户输入
input = raw_input()
# 每当输入回车一次,判断一下是否要加载新页面
self.loadPage()
# 如果输入Q则程序结束
if input == "Q":
self.enable = False
return
print u"第%d页\t发布人:%s\t评论:%s\t赞:%s\n%s" % (page, story[0], story[3], story[2], story[1])

# 开始方法
def start(self):
print u"正在读取糗事百科,按回车查看新段子,Q退出"
# 使变量为True,程序可以正常运行
self.enable = True
# 先加载一页内容
self.loadPage()
# 局部变量,控制当前读到了第几页
nowPage = 0
while self.enable:
if len(self.stories) > 0:
# 从全局list中获取一页的段子
pageStories = self.stories[0]
# 当前读到的页数加一
nowPage += 1
# 将全局list中第一个元素删除,因为已经取出
del self.stories[0]
# 输出该页的段子
self.getOneStory(pageStories, nowPage)
spider = QSBK()
spider.start()

 运行结果如下:

 

 




设计面向对象模式

posted @ 2017-12-09 14:57  小糊涂也学要编程  阅读(216)  评论(0编辑  收藏  举报