第二章 数据解析

第二章 数据解析

2.1 re 解析

2.1.1 re解析

Regular Expression, 正则表达式, ⼀种使⽤表达式的⽅式对字符串 进⾏匹配的语法规则。

正则的语法: 使⽤元字符进⾏排列组合⽤来匹配字符串 在线测试正 则表达式https://tool.oschina.net/regex/

元字符: 具有固定含义的特殊符号

常用元字符:

 . 匹配除换⾏符以外的任意字符
\w 匹配字⺟或数字或下划线
\s 匹配任意的空⽩符
\d 匹配数字
\n 匹配⼀个换⾏符
\t 匹配⼀个制表符
^ 匹配字符串的开始
$ 匹配字符串的结尾
\W 匹配⾮字⺟或数字或下划线
\D 匹配⾮数字
\S 匹配⾮空⽩符
a|b 匹配字符a或字符b
() 匹配括号内的表达式,也表示⼀个组
[...] 匹配字符组中的字符
[^...] 匹配除了字符组中字符的所有字符

量词: 控制前⾯的元字符出现的次数。

* 重复零次或更多次
+ 重复⼀次或更多次
? 重复零次或⼀次
{n} 重复n次
 {n,} 重复n次或更多次
{n,m} 重复n到m次

贪婪匹配和惰性匹配:

 .* 贪婪匹配
.*? 惰性匹配	# 爬虫中使用最多的匹配方式

例:

str: 玩⼉吃鸡游戏, 晚上⼀起上游戏, ⼲嘛呢? 打游戏啊
reg: 玩⼉.*?游戏
此时匹配的是: 玩⼉吃鸡游戏
reg: 玩⼉.*游戏 
此时匹配的是: 玩⼉吃鸡游戏, 晚上⼀起上游戏, ⼲嘛呢? 打游戏 

str: <div>胡辣汤</div>
reg: <.*>
结果: <div>胡辣汤</div>

str: <div>胡辣汤</div>
reg: <.*?>
结果:
<div>
</div>

str: <div>胡辣汤</div><span>饭团</span>
reg: <div>.*?</div>
结果:
 <div>胡辣汤</div>

2.1.2 re模块

1.findall 查找所有. 返回list

lst = re.findall("m", "mai le fo len, mai nimei!")
print(lst) # ['m', 'm', 'm']
lst = re.findall(r"\d+", "5点之前. 你要给我5000万")
print(lst) # ['5', '5000']

2.search 会进⾏匹配. 但是如果匹配到了第⼀个结果. 就会返回这 个结果. 如果匹配不上search返回的则是None.

ret = re.search(r'\d', '5点之前. 你要给我5000万').group()
print(ret) # 5

3.match 只能从字符串的开头进⾏匹配

ret = re.match('a', 'abc').group() 
print(ret) # a

4.finditer, 和findall差不多. 只不过这时返回的是迭代器(重点)

it = re.finditer("m", "mai le fo len, mai nimei!")
for el in it:
 print(el.group()) # 依然需要分组

5.compile() 可以将⼀个⻓⻓的正则进⾏预加载. ⽅便后⾯的使⽤

obj = re.compile(r'\d{3}') # 将正则表达式编译成为⼀个正则表达式对象, 规则要匹配的是3个数字
ret = obj.search('abc123eeee') # 正则表达式对象调⽤search, 参数为待匹配的字符串
print(ret.group()) # 结果: 123

6.正则中的内容如何单独提取? 单独获取到正则中的具体内容可以给分组起名字

s = """
<div class='⻄游记'><span id='10010'>中国联通
</span></div>
"""
obj = re.compile(r"<span id='(?P<id>\d+)'>(?P<name>\w+)</span>", re.S)
result = obj.search(s)
print(result.group()) # 结果: <spanid='10010'>中国联通</span>
print(result.group("id")) # 结果: 10010 # 获取id组的内容
print(result.group("name")) # 结果: 中国联通 #获取name组的内容

这⾥可以看到我们可以通过使⽤分组. 来对正则匹配到的内容进 ⼀步的进⾏筛选.

2.1.3 实例一:爬取豆瓣电影排行版前25信息

⽬标: 抓取"电影名称","上映年份","评分","评分⼈数"四项内容

从页面源代码出发

最后,综上爬虫代码

import requests
import re
import csv

url = "https://movie.douban.com/top250"
headers = {
    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.60 Safari/537.36 Edg/100.0.1185.29"
}
resp = requests.get(url,headers=headers)
page_counter = resp.text

# 解析数据
obj = re.compile(r'<li>.*?<span class="title">(?P<name>.*?)'
                 r'</span>.*?<br>(?P<year>.*?)&nbsp'
                r';/&nbsp.*?<span>(?P<num>.*?)人评价</span>', re.S)
# 开始匹配
result = obj.finditer(page_counter)
f = open ("data.csv", mode="w", encoding="utf-8")
csvwriter = csv.writer(f)
for it in result:
    # print(it.group("name"))
    # print(it.group("num"))
    # print(it.group("year").strip())
    dic = it.groupdict()
    dic['year'] = dic['year'].strip()
    csvwriter.writerow(dic.values())

resp.close()
f.close()
print("OVER!")

2.1.4 实例二:爬取电影天堂推荐电影下载地址

流程:
1.定位到需要爬取的内容位置
2.从内容中提取到子页面的链接地址
3.请求子页面的链接地址,拿到我们想要的下载地址

代码如下:

import requests
import re
import csv

domain = "https://dytt89.com/"
reps = requests.get(domain, verify=False)       # verify=False去掉安全验证
reps.encoding = "gb2312"        # 指定字符型
# print(reps.text)

# 拿到ul里面的li
obj1 = re.compile(r"2022必看热片.*?<ul>(?P<ul>.*?)</ul>", re.S)
obj2 = re.compile(r"<a href='(?P<herf>.*?)'", re.S)
obj3 = re.compile(r'<div class="title_all"><h1>.*?《(?P<movie>.*?)》.*?'
                  r'<td style="WORD-WRAP: break-word" bgcolor="#fdfddf"><a href="(?P<download>.*?)">', re.S)

result1 = obj1.finditer(reps.text)
child_herf_list = []
for it in result1:
    ul = it.group('ul')
    # print(ul)
result2 = obj2.finditer(ul)
for itt in result2:
    # 拼接子页面的url地址: 域名 + 子页面地址
    child_herf = domain + itt.group("herf").strip("/")
    # print(itt.group("herf"))
    child_herf_list.append(child_herf)      # 把子页面链接保存起来

f = open ("movie.csv", mode="w", encoding="utf-8")
csvwriter = csv.writer(f)

# 提取子页面内容
for href in child_herf_list:
    child_reps = requests.get(href, verify=False)
    child_reps.encoding = "gb2312"
    result3 = obj3.search(child_reps.text)
    # print(result3.group("movie"))
    # print(result3.group("download"))
    dic = result3.groupdict()
    csvwriter.writerow(dic.values())
    child_reps.close()

print("OVER!")
reps.close()
posted @ 2022-04-03 23:11  tlott  阅读(28)  评论(0编辑  收藏  举报