python爬虫---爬虫的数据解析的流程和解析数据的几种方式
一丶爬虫数据解析
概念:将一整张页面中的局部数据进行提取/解析
作用:用来实现聚焦爬虫的吧
实现方式:
正则 (针对字符串)
bs4
xpath (最常用)
pyquery " https://www.jianshu.com/p/770c0cdef481"
数据解析的通用原理是什么?
标签的定位
数据的提取
页面中的相关的字符串的数据都存储在哪里呢?
标签中间
标签的属性中
基于聚焦爬虫的编码流程
1. 指定url
2. 发起请求
3. 获取响应数据
4. 数据解析
5. 持久化存储
正则解析
page_text = requests.get(url,headers=headers).text
ex = '<div class="text">.*?<img src="(.*?)" referrerPolicy.*?</div>'
img_src_list = re.findall(ex,page_text,re.S)
BS4解析
pip install bs4
pip install lxml
实例化一个BeautifulSoup的一个对象,把即将被解析的页面源码数据加载到该对象中
需要调用BeautifulSoup对象中的相关的方法和属性进行标签定位和数据的提取
BeautifulSoup(fp,'lxml'):将本地存储的html文档中的页面源码数据加载到该对象中
BeautifulSoup(page_text,'lxml'):将从互联网中请求道的页面源码数据加载到改对象中
标签定位:soup.tagName:只可以定位到第一个tagName标签
属性定位:soup.find('tagName',attrName='value'),只可以定位到符合要求的第一个标签
选择器定位:soup.select('选择器')
text:将标签中所有的文本取出
string:将标签中直系的文本取出
tag['attrName']
XPATH解析
pip install lxml
实例化一个etree的对象,且把即将被解析的页面源码数据加载到该对象中
调用etree对象中的xpath方法结合这不同形式的xpath表达式进行标签定位和数据提取
etree.parse('fileName')
etree.HTML(page_text)
最左侧的/:一定要从根标签开始进行标签定位
非最左侧的/:表示一个层级
最左侧的//:可以从任意位置进行指定标签的定位
非最左侧的//:表示多个层级
属性定位://tagName[@attrName="value"]
索引定位://tagName[@attrName="value"]/li[2],索引是从1开始
逻辑运算:
找到href属性值为空且class属性值为du的a标签
//a[@href="" and @class="du"]
模糊匹配:
//div[contains(@class, "ng")]
//div[starts-with(@class, "ta")]
/text():直系的文本内容
//text():所有的文本内容
/@attrName
其他问题
img_name = img_name.encode('iso-8859-1').decode('gbk')
soup.tagName
find/findAll()
select()
text/string
tag['attrName]
# .写出常用的xpath表达式?
属性定位
索引定位
取文本
取属性
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?