python-jieba_fast分词器
jieba 是一个中文分词器,可以将中文文本切分成一个个词语。使用 jieba 分词器,需要先安装 jieba 库,可以通过以下命令来安装:
pip install jieba_fast
如果装不上,首先在https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/ 下载Microsoft Visual C++ Build Tools,选择Windows 11 SDK组件。安装好之后是这样:
点击启动,会再弹出来一个Visual Studio 2022的窗口:
此时再打开编辑器终端,执行:pip install jieba_fast即可成功
使用:jieba_fast的cut方法可以将中文切成若干个词语,结果是一个生成器对象
import jieba_fast
text = '我有分词能力'
words = jieba_fast.cut(text) # <generator object Tokenizer.cut at 0x00000224F1CA3938>
print(words)
for word in words:
print(word)
"""
我
有
分词
能力
"""
jieba_fast的cut_for_search同cut,cut_for_search方法还会对长词进行切分,适合用于搜索引擎等场景
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)