最简单文本的爬虫,并结合数据分析和可视化能力
前言
本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。
作者:数据皮皮侠
B站视频的特点是可以根据视频主键标识oid就可以得到字幕,一般使用地址:https://api.bilibili.com/x/v1/dm/list.so?oid=真实oid,找到oid的方法是在网页上通过F12查看网页信息,刷新网页后查看oid即可,如下:
本次使用《夏洛特烦恼》电源的实时字幕测试,在b站的链接是:https://www.bilibili.com/bangumi/play/ep320665?from=search&seid=12253113013013173840,马什么梅啊,Ma What?
播放时候使用上述方法查找oid,发现用https://api.bilibili.com/x/v1/dm/list.so?oid=183896111的链接可以查看字母的XML文件列表:
1、首先,我们得到把字幕保存到本地,这里使用lxml包处理读取的HTML并提取其中元素,保存本地;
import requests import jieba import os import numpy as np from lxml import etree from PIL import Image import jieba.analyse import matplotlib.pyplot as plt from wordcloud import WordCloud, ImageColorGenerator url = 'https://api.bilibili.com/x/v1/dm/list.so?oid=183896111' headers={ "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:72.0) Gecko/20100101 Firefox/72.0" } response=requests.get(url,headers=headers) html=etree.HTML(response.content) d_list=html.xpath("//d//text()") print("+++++++++++++++++"+os.getcwd()+"+++++++++++++++++") with open ('xialuote.txt',"a+",encoding="utf-8") as f: for t in d_list: f.write(t+'\n')
二、词云制作,使用结巴分词读取数据,并计算常用词汇出现的频率,使用wordcloud显示图片;
words = '' f = open('xialuote.txt', 'r',encoding='utf-8') for i in f: words += f.read() result = jieba.analyse.textrank(words, topK=450, withWeight=True) keyworlds = dict() or i in result: keyworlds[i[0]] = i[1] #print(keyworlds) image = Image.open('test.jpg') graph = np.array(image) wc = WordCloud(font_path='simhei.ttf', background_color='Black', max_font_size=170, mask=graph) wc.generate_from_frequencies(keyworlds) image_color = ImageColorGenerator(graph) plt.imshow(wc) # plt.imshow(wc.recolor(color_func=image_color)) plt.axis('off') plt.show() wc.to_file('x.png')
输出图片:
PS:如有需要Python学习资料的小伙伴可以加下方的群去找免费管理员领取
可以免费领取源码、项目实战视频、PDF文件等