python爬虫(BeautifulSoup)爬取B站视频字幕
比如“https://www.bilibili.com/video/BV1zU4y1p7L3”这个视频,有1.2万条弹幕
首先,B站视频的弹幕是有专门的接口传递数据的:http://comment.bilibili.com/***.xml,中间的*号是播放视频的id,怎么获取?
播放视频的时候按F12键,选择找到heartbeat,拉到最下方formdata内有cid字样即视频id
访问地址,http://comment.bilibili.com/309778762.xml拿到弹幕,但是这个接口只提供1000多条弹幕数据
接下来,我们将数据全部爬取下来,本次就不使用xpath爬虫来提取数据,使用BeautifulSoup来提取数据
网上安装BeautifulSoup教程很多,这里不表,导入BeautifulSoup库
from bs4 import BeautifulSoup import requests import re
爬取数据部分
url = 'http://comment.bilibili.com/309778762.xml' html = requests.get(url) html.encoding='utf8' soup = BeautifulSoup(html.text,'lxml') results = soup.find_all('d')
前面4行理解起来问题不大,常规步骤,关键在最后一行find内,可以表述问,查找文内所有标签“d”的内容
因为弹幕的内容都存放在标签d内
关于find_all的解析,请参看:https://www.cnblogs.com/keye/p/7868059.html,讲的很清楚
然后就是对获取数据的处理,只需要保留弹幕内容
for i in results: i = str(i) i = re.findall('">(.*?)</d>', i, re.S)[0] print(i)
全部脚本如下
# -*- coding: utf-8 -*- from bs4 import BeautifulSoup import requests import re url = 'http://comment.bilibili.com/309778762.xml' html = requests.get(url) html.encoding='utf8' soup = BeautifulSoup(html.text,'lxml') results = soup.find_all('d') for i in results: i = str(i) i = re.findall('">(.*?)</d>', i, re.S)[0] print(i)
打印输出
至于爬出来的数据怎么用,可以统计字频,获取做成词云(下图),那是后面研究的了
分类:
爬虫案例
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· Ollama——大语言模型本地部署的极速利器
· 使用C#创建一个MCP客户端
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现