盘点Python网络爬虫过程中xpath的联合查询定位一个案例
大家好,我是皮皮。
一、前言
前几天在Python钻石交流群【髙鵬】问了一个Python网络爬虫的问题,提问截图如下:

原始代码如下:
import time
from selenium import webdriver
from selenium.webdriver.common.by import By
driver = webdriver.Chrome()
driver.get("https://bookmaker.xyz/")
time.sleep(5)
# print(driver.page_source) # 网页原码
click1 = driver.find_element(By.XPATH, '//*[@id="games-navbar"]/div/div/div/div[1]/div/div/a[2]/div/span')
time.sleep(3)
click1.click()
# click2 = driver.find_element(By.XPATH, '//span[@class="Text_label-medium__uChzZ Text_c-white___3mSz" & '
# '@data-testid="opponents-title"]')
text = driver.find_element(By.LINK_TEXT, '//*Aston Villa - West Ham United')
time.sleep(5)
text.click()
# driver.close()
这里【D I Y】给了一个思路,如下图所示。

二、实现过程
这里【瑜亮老师】给出了具体的思路,看上去方法还是很多的,如下所示。

最后给了一份代码如下所示:
import time
from selenium import webdriver
from selenium.webdriver.common.by import By
driver = webdriver.Chrome()
driver.get("https://bookmaker.xyz/")
time.sleep(3)
text = driver.find_element(By.XPATH, '//a[@class="GameOpponents_names__bSbc_"]')
text.click()
顺利地解决了粉丝的问题。

三、总结
大家好,我是皮皮。这篇文章主要盘点了一个Python网络爬虫的问题,文中针对该问题给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。
最后感谢粉丝【髙鵬】提问,感谢【瑜亮老师】、【D I Y】、【甯同学】、【此类生物】给出的思路和代码解析,感谢【dcpeng】、【冫马讠成】等人参与学习交流。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具
2020-09-16 CSS样式更改——多列、元素是否可见、图片透明度
2018-09-16 如何在Ubuntu14.04中创建Python虚拟环境