中文词频统计

1. 下载一长篇中文小说。

2. 从文件读取待分析文本。

3. 安装并使用jieba进行中文分词。

pip install jieba

import jieba

ljieba.lcut(text)

4. 更新词库,加入所分析对象的专业词汇。

jieba.add_word('天罡北斗阵')  #逐个添加

jieba.load_userdict(word_dict)  #词库文本文件

参考词库下载地址:https://pinyin.sogou.com/dict/

转换代码:scel_to_text

5. 生成词频统计

6. 排序

7. 排除语法型词汇,代词、冠词、连词等停用词。

stops

8. 输出词频最大TOP20,把结果存放到文件里

#coding=utf-8
import jieba
import stopwords

# stopword = open(r'stops_chinese1.txt', 'r', encoding='utf-8')

dict = {}
f = open(r'jiji.txt', 'r', encoding='utf-8')
str1=f.read()

f.close()
remove = ",,—-。?.()?!‘’""[]!“”、"
jieba.load_userdict('world.txt')
for i in remove:
str1 = str1.replace(i, "")
str1=jieba.lcut(str1)
str1=" ".join(str1)


list = str1.split()
print(list)
for word in list:
dict[word] = list.count(word)
d = sorted(dict.items(), reverse=True, key=lambda d: d[1])
for l in range(20):
print(d[l][0], "--", d[l][1])

 

9. 生成词云。

 

posted on 2019-03-18 20:38  朱志杰  阅读(243)  评论(0编辑  收藏  举报