xpath(XML Path Language)是一门在XML和HTML文档中查找信息的语言,可以用来在XML和HTML文档中对元素和属性进行遍历。

XPath开发工具

1.Chrome插件XPath Helper。

2.Firefox插件Try XPath。

 

XPath 使用路径表达式来选取XMl文档中的节点或者节点集。

表达式 描述 示例 结果
nodename 选取此节点的所有子节点 bookstore 选取bookstore下所有的子节点
/

如果是在最前面,代表从根节点选取。

否则,代表选择某节点下的某节点

/bookstore 选取根节点下所有的bookstore节点
// 从全局节点中选取节点,随便在哪个位置 //book 从全局节点中找到所有book节点
@ 选取某个节点的属性 //book[@price] 选取所有含有price属性的book标签

 

 

通过使用路径表达式中的‘|’运算符来选取多个路径:

# 选取所有的book元素以及book元素下所有的title元素
//bookstore/book|//book/title

  

谓语:

谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在 [] 中。常见的带有谓语的路径表达式及其结果如下所示:

路径表达式 描述
/bookstore/book[1] 选取bookstor下的第一个book元素
/bookstore/book[last()] 选取bookstore下的最后一个book元素
bookstore/book[position()<3] 选取bookstore下的前两个book元素
//book[@price] 选取拥有price属性的book元素
//book[@price=10] 选取所有price属性值为10的book元素

[] 的下标从1开始。

 

通配符:

* 表示通配符。

通配符 描述 示例 结果
* 匹配任意节点 /bookstore/* 选取bookstore下的所有子元素
@* 匹配节点中的任何属性 //book[@*] 选取所有带有属性的book元素

 

XPath语法:

使用方式:

使用//获取整个页面的元素,然后写标签名,再然后写谓词金进行提取。比如:

//div[@class='abc']

  需要注意:

1. /  和 // 的区别:/代表只是获取直接子节点。// 获取子孙节点。一般 //用的比较多。

2. contains: 有时某个属性包含多个值,那么可以使用‘contains’函数。

//div[contains(@class,'job_detail')]

 

3. 谓词中的下标是从1开始的。

  

通过使用 lxml 库来使用XPath语法来解析网页数据。

lxml 是一个HTML/XML的解析器,主要功能是解析和提取HTML和XML数据。lxml 和正则一样,也是用c实现的,是一款高性能的python HTML/XML 

解析器。可以利用XPath语法来快速的定位特定元素以及节点信息。

lxml python官方文档:http://lxml.de/index.html

使用 pip 安装: pip install lxml

 

使用 lxml 解析HTML代码:

1. 解析 html 字符串(text 是HTML格式的字符串):使用' lxml.etree.HTML'进行解析。示例代码:

htmlElement = etree.HTML(text)
print(etree.tostring(htmlElement,encoding='utf-8').decode('utf-8'))

 

2. 解析html文件:使用'lxml.etree.parse'进行解析。示例代码:

htmlElement = etree.parse('tencent.html')
print(etree.tostring(htmlElement,encoding='utf-8').decode('utf-8'))

 'etree.parse' 使用的是‘XML’解析器,所以如果碰到一些不规范的‘HTML’代码时就会解析错误,这时就要自己创建‘HTML’解析器。

# etree.HTMLParser 创建一个‘HTML’解析器
parser = etree.HTMLParser(encoding='utf-8')
htmlElement = etree.parse('tencent.html',parser=parser)
print(etree.tostring(htmlElement,encoding='utf-8').decode('utf-8'))

 

from lxml import etree

"""
1. 获取所有的tr标签
2.获取第二个tr标签
3. 获取所有的class等于even的标签
4. 获取所有a标签的href属性值
5,获取所有的职位信息(纯文本)
"""

parser = etree.HTMLParser(encoding='utf-8')
html = etree.parse("tencent.html",parser=parser)

# 1. 获取所有tr标签
# xpath函数返回的是一个列表
trs = html.xpath('//tr')
for tr in trs:
    print(etree.tostring(tr,encoding='utf-8').decode('utf-8'))

# 2. 获取第二个tr标签
secondtr = html.xpath('//tr(2)')[0]

# 3. 获取所有的class等于even的标签
trs = html.xpath("//tr[@class="even"]")
for tr in trs:
    print(etree.tostring(tr,encoding='utf-8').deconde('utf-8'))


# 4. 获取所有a标签的href属性值
"""
获取所有a标签的href属性的值[‘’//a/@href’’]; 
获取所有含有href 属性的 a标签//a[@href]。
"""
alist = html.xpath("//a/@href")
for a in alist:
    print('http://hr.tencent.com/'+a)


# 5. 获取获取所有的职位信息(纯文本)
trs = html.xpath("//tr[position()>1]")
positions = []
for tr in trs:
    href = tr.xpath(".//a/@href")[0]
    fullurl = 'http://hr.tencent.com/'+href
    title = tr.xpath("./td[1]//text()")[0]
    category = tr.xpath("./td[2]//text()")[0]
    nums = tr.xpath("./td[3]//text()")[0]
    address = tr.xpath("./td[4]/text()")[0]
    pubtime = tr.xpath('./td[5]/text()')[0]
    
    
    position = {
        'url':fullurl,
        'title':title,
        'category':category,
        'address':address,
        'pubtime':pubtime
    }
    positions.append(position)
View Code

 

lxml 结合 xpath注意事项:

1. 使用‘xpath’语法应该使用'Element.xpath'方法来执行xpath的选择。示例代码:

trs = html.xpath("//tr[positon()>1]")

  'xpath'函数返回的是一个列表。

2, 获取某个标签的属性:

href = html.xpath("//a/@href")

 

3. 通过'xpath'中的‘text()’ 函数获取文本。

address = tr.xpath("./td[4]/text()")[0]

  

 4. 在某个标签下,再执行xpath函数,获取这个标签下的子孙元素,那么应该在‘/’之前加一个点,代表是在当前元素下获取。

 

 

 

import requests
from lxml import etree





# 1. 将目标页面的数据抓取下来
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3642.0 Safari/537.36',
    'Referer':'https://movie.douban.com/'

}


url = 'https://movie.douban.com/cinema/nowplaying/xuchang/'
response = requests.get(url,headers=headers)
text = response.text

# 2. 根据一定的规则对抓取下来的数据进行提取 
html = etree.HTML(text)

# 正在上映的电影的标签,  [1]即将上映的电影的标签
ul = html.xpath("//ul[@class='lists']")[0]
# # 查看获取的ul标签
# print(etree.tostring(ul,encoding='utf-8').decode('utf-8'))

# 获取li标签
lis = ul.xpath("./li")
movies = []
for li in lis:
    title = li.xpath('@data-title')[0]
    score = li.xpath('@data-score')[0]
    duration = li.xpath('@data-duration')[0]
    region = li.xpath('@data-region')[0]
    direcrot = li.xpath('@data-director')[0]
    actors = li.xpath('@data-actors')[0]
    thumbnail = li.xpath(".//img/@src")[0]
    movie = {
        'title':title,
        'score':score,
        'duration':duration,
        'region': region,
        'direcrot':direcrot,
        'actors':actors,
        'thumbnail':thumbnail

    }
    movies.append(movie)

print(movies)
View Code

 

import requests
from lxml import etree
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3642.0 Safari/537.36'
}
BASE_DOMAIN = 'https://www.dytt8.net'
def get_detail_urls(url):
    response = requests.get(url, headers=headers)
    text = response.text
    html = etree.HTML(text)
    detail_urls = html.xpath("//table[@class='tbspan']//a/@href")
    # detail_urls = []
    # for get_detail_url in detail_urls:
    #     detail_url = BASE_DOMAIN + get_detail_url
    #     detail_urls.append(detail_url)

    detail_urls = map(lambda url:BASE_DOMAIN+url,detail_urls)
    return detail_urls

def parse_detail_page(url):
    movie = {}
    response = requests.get(url,headers=headers)
    text = response.content.decode('gbk')

    html = etree.HTML(text)
    title = html.xpath("//div[@class='title_all']//font[@color='#07519a']/text()")[0]
    movie['title'] = title
    zooms = html.xpath("//div[@id='Zoom']")[0]
    imgs = zooms.xpath(".//img/@src")
    # 封面图
    coverimg = imgs[0]
  

    movie['cover'] = coverimg
  

    def pares_info(info,rule):
        return info.replace(rule,'').strip()

    infos = zooms.xpath(".//text()")
    for index,info in enumerate(infos):
        if info.startswith("◎年  代"):
            # info = info.replace("◎年  代",'').strip()
            info = pares_info(info,"◎年  代")
            movie['year'] = info
        elif info.startswith("◎产  地"):
            info = pares_info(info, "◎产  地")
            movie['country'] = info
        elif info.startswith("◎类  别"):
            info = pares_info(info, "◎类  别")
            movie['category'] = info
        elif info.startswith("◎豆瓣评分"):
            info = pares_info(info, "◎豆瓣评分")
            movie['douban_rating'] = info
        elif info.startswith("◎片  长"):
            info = pares_info(info, "◎片  长")
            movie['duration'] = info
        elif info.startswith("◎导  演"):
            info = pares_info(info, "◎导  演")
            movie['director'] = info
        elif info.startswith("◎主  演"):
            info = pares_info(info, "◎主  演")
            actors = [info]
            for x in range(index+1,len(infos)):
                # 去除空白字符
                actor = infos[x].strip()
                if actor.startswith(""):
                    break
                actors.append(actor)
            movie['actors'] = actors
        elif info.startswith("◎简  介"):
            info = pares_info(info, "◎简  介")
            for x in range(index + 1, len(infos)):
                profile = infos[x].strip()
                movie['profile'] = profile
    download_url = html.xpath("//td[@bgcolor='#fdfddf']/a/@href")[0]
    movie['download_url'] = download_url
    return movie



    pass

def spider():
    base_url = 'https://www.dytt8.net/html/gndy/dyzz/list_23_{}.html'
    # 页数
    movies = []
    for x in range(1,223):
        url = base_url.format(x)
        detail_urls = get_detail_urls(url)
        # 一页中的所有详情的URL
        for detail_url in detail_urls:
            movie = parse_detail_page(detail_url)
            movies.append(movie)
            print(movie)

    # print(movies)




if __name__ =='__main__':
    spider()
View Code

 

posted on 2020-10-19 20:54  -豪-  阅读(268)  评论(0编辑  收藏  举报