python爬虫-韩寒新浪博客博文

博客地址:http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html

爬第一页博文

 1 #-*-coding:utf-8-*-
 2 import re
#导入正则表达式模块
3 import urllib
#导入urllib库
4 5 url='http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html'
#第一页博文地址
6 response = urllib.urlopen(url)
#通过urllib库中的urlopen()函数来访问这个url
#这里省略了构建request请求这一步
7 html = response.read()
#读取出来存在html这个变量当中,到这里也就完成了html的爬取
8 #print(html) 9 #这里可以将爬取到的html输出到终端 10 pattern = re.compile('<a title=.*?href=(.*?)>(.*?)</a>',re.S)
#通过正则表达式来匹配
11 blog_address = re.findall(pattern,html)
#通过findall函数从爬取到的html中找出所要的内容
12 for i in blog_address: 13 print(i[0])
#输出第一个分组的内容即博客博文地址
14 print(i[1])
#输出第二个分组的内容即博文标题

部分结果如下:

 所遇到的问题:1爬取的结果多了两个,第一个和最后一个不是所要的内容?

                    2 输出结果的时候用print(i[0],i[1])出现乱码,这是为什么?

通过while循环来解决多页的问题

 1 #-*-coding:utf-8-*-
 2 import re
 3 import urllib
 4 page=1
 5 while page<=7:
 6     url='http://blog.sina.com.cn/s/articlelist_1191258123_0_'+str(page)+'.html'
 7     #url='http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html'
 8     response = urllib.urlopen(url)
 9     html = response.read().decode('utf-8')
10     #print(html)
11     pattern = re.compile('<a title=.*?target=.*?href=(.*?)>(.*?)</a>',re.S)
12     blog_address = re.findall(pattern,html)
13     for i in blog_address:
14         print(i[0])
15         print(i[1])
16     page = page + 1

结果最后部分如下图:

 

posted @ 2015-12-12 19:46  邬家栋  阅读(531)  评论(0编辑  收藏  举报