python-jieba_fast分词器

jieba 是一个中文分词器,可以将中文文本切分成一个个词语。使用 jieba 分词器,需要先安装 jieba 库,可以通过以下命令来安装:

pip install jieba_fast

如果装不上,首先在https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/ 下载Microsoft Visual C++ Build Tools,选择Windows 11 SDK组件。安装好之后是这样:
image
点击启动,会再弹出来一个Visual Studio 2022的窗口:
image
此时再打开编辑器终端,执行:pip install jieba_fast即可成功

使用:jieba_fast的cut方法可以将中文切成若干个词语,结果是一个生成器对象

import jieba_fast
text = '我有分词能力'
words = jieba_fast.cut(text)  # <generator object Tokenizer.cut at 0x00000224F1CA3938>
print(words)
for word in words:
    print(word)
"""
我
有
分词
能力
"""

image
jieba_fast的cut_for_search同cut,cut_for_search方法还会对长词进行切分,适合用于搜索引擎等场景
image

posted @   ERROR404Notfound  阅读(452)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
Title
点击右上角即可分享
微信分享提示