爬虫笔记:PyQuery模块(七)
PyQuery模块也是一个解析html的一个模块,它和Beautiful Soup用起来差不多,它是jquery实现的,和jquery语法差不多,会用jquery的人用起来就比较方便了。
Pyquery需要依赖lxml模块,不装的话,使用会报错。
安装
pip install lxml pip install pyquery
解析html的3种方式
from pyquery import PyQuery html = """ <html><head><title>Baidu</title></head> <body> <div> <p class="content">搜索 <a href="http://www.baidu.com" class="link" id="link1"><!--首页--></a>, <a href="http://www.baidu.com/page/3.html" class="link" id="link2">搜索1</a> and <a href="http://www.baidu.com/page/47.html" class="link" id="link3">搜索2</a>; 请点击上面的链接.</p> <p class="content">.这是广告植入.</p> <p class="title">百度</p> </div> </body> </html> """ doc = PyQuery(url='http://www.baidu.com') #指定url,url里面的html源码 doc2 = PyQuery(html) #指定html字符串 doc3 = PyQuery(filename='index.html') #指定文件 print(doc) print(doc2) print(doc3)
css选择器
css在bs模块里面也用过,用法差不多。具体如下
print(doc2('.link')) #通过class print(doc2('#link1')) #通过id print(doc2('.content,#link1')) #找到所有class为content和id为link1的 print(doc2('.content #link1')) #在content下面找到id为link1的元素 print(doc2('a'))#找到所有的a标签 print(doc2('[href]'))#找到所有带有href属性的元素 print(doc2('a[target=_blank]'))#找到a标签下面target为_blank的
常用方法
# eq方法,获取第几个元素 a_tags = doc2('a') print(a_tags.eq(0)) # a标签里面第一个 print(a_tags.eq(1)) # a标签里面第二个 # items() # 如果找到多个元素的话,想循环取元素的话,就得用.items()方法,items就是为了循环用的 a_tag = doc2('a') for a in a_tag.items(): print(a.text()) # text() 、html() # text()方法是获取元素里面的文字的,html()是获取元素的html a = doc2('.content') print(a.html()) # html格式的 print(a.text()) # 只有里面的文字 # find方法,查找元素 print(doc2.find('p').find('a')) # 从所有的p标签里面找到a标签 print(doc2.find('p')) # 找到所有的p标签 print(doc2.find('.content')) # 找到所有class为content的 # filter方法,用来筛选 print(doc2.find('a').filter('#link1')) # 先找到a标签,然后从a标签里面筛选出来id为link1的 # attr方法,获取属性 print(doc2('#link1').attr(('href'))) # 获取id为link1的href的属性值