python-jieba_fast分词器

jieba 是一个中文分词器,可以将中文文本切分成一个个词语。使用 jieba 分词器,需要先安装 jieba 库,可以通过以下命令来安装:

pip install jieba_fast

如果装不上,首先在https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/ 下载Microsoft Visual C++ Build Tools,选择Windows 11 SDK组件。安装好之后是这样:
image
点击启动,会再弹出来一个Visual Studio 2022的窗口:
image
此时再打开编辑器终端,执行:pip install jieba_fast即可成功

使用:jieba_fast的cut方法可以将中文切成若干个词语,结果是一个生成器对象

import jieba_fast
text = '我有分词能力'
words = jieba_fast.cut(text)  # <generator object Tokenizer.cut at 0x00000224F1CA3938>
print(words)
for word in words:
    print(word)
"""
我
有
分词
能力
"""

image
jieba_fast的cut_for_search同cut,cut_for_search方法还会对长词进行切分,适合用于搜索引擎等场景
image

posted @ 2023-09-08 10:28  ERROR404Notfound  阅读(401)  评论(0编辑  收藏  举报
Title