jieba分词
```import jieba # 读取文本文件 path = "西游记.txt" file = open(path, "r", encoding="utf-8") text = file.read() file.close() # 使用jieba分词 words = jieba.lcut(text) # 统计词频 counts = {} for word in words: # 过滤掉长度为1的词语 if len(word) == 1: continue # 更新字典中的词频 counts[word] = counts.get(word, 0) + 1 # 对字典中的键值对进行排序 items = list(counts.items()) items.sort(key=lambda x: x[1], reverse=True) # 输出前20个高频词语 for i in range(20): word, count = items[i] print(f"{word:<10}{count:>5}")
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具