中文词频统计

中文分词

  1. 下载一中文长篇小说,并转换成UTF-8编码。
  2. 使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
  3. 排除一些无意义词、合并同一词。
  4. 对词频统计结果做简单的解读。
import jieba

a=open('C:/1.txt','r',encoding='utf-8').read()


for i in '\n,.\()。,123"?':
    a=a.replace(i,' ')

b=jieba.cut(a)
d=list(b)

exc={' ','','','使','','','','一个','', '也是', '','','','','','廖沙','','','','','','','','',''}
dict={}
key=set(d)
key=key-exc

print(key)

for i in key:
    
    dict[i]=d.count(i)

st=list(dict.items())
st.sort(key=lambda x:x[1],reverse=True)
print(st)
for i in range(20):
    print(st[i])

阿廖沙的生活非常悲惨 跟随他的外祖母生活 <童年>并且讲述的是他在学校的故事

posted @ 2017-09-29 16:42  003蒋宇翔  阅读(103)  评论(0编辑  收藏  举报