中文词频
下载一长篇中文文章。
从文件读取待分析文本。
news = open('gzccnews.txt','r',encoding = 'utf-8')
安装与使用jieba进行中文分词。
pip install jieba
import jieba
list(jieba.lcut(news))
生成词频统计
排序
排除语法型词汇,代词、冠词、连词
输出词频最大TOP20
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 | import jieba f = open ( 'C:/Users/user/Desktop/122.txt' , 'r' ,encoding = 'gbk' ) s = f.read() f.close() print (s) s1 = list (jieba.lcut(s)) miss = { ',' , '。' , ' ' , ':' , '“' , '”' ,' ',' ! ',' 、 ',' ? ',' ; ',' \n'} s2 = {} for b in s1: s2[b] = s2.get(b, 0 ) + 1 for a in miss: if a in s2: del s2[a] s3 = sorted (s2.items(),key = lambda x:x[ 1 ],reverse = True ) for c in range ( 20 ): print (s3[c]) |
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步