下载一长篇中文文章。
从文件读取待分析文本。
news = open('gzccnews.txt','r',encoding = 'utf-8')
安装与使用jieba进行中文分词。
pip install jieba
import jieba
list(jieba.lcut(news))
生成词频统计
排序
排除语法型词汇,代词、冠词、连词
输出词频最大TOP20
# -*- coding:UTF-8 -*- # -*- author:deng -*- import jieba f=open('C:/Users/Administrator/Desktop/童年.txt','r',encoding='gbk') notes=f.read() notelist=list(jieba.lcut(notes)) NoteDic={} #统计次数 for i in set(notelist): NoteDic[i]=notelist.count(i) #删除非法词汇 delete_word={'你','我','他','她','它','和','及','或者','这','那'} for i in delete_word: if i in NoteDic: del NoteDic[i] sort_word = sorted(NoteDic.items(), key= lambda d:d[1], reverse = True) # 由大到小排序 for i in range(20): #输出词频Top20 print(sort_word[i])