会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
土豆面包
博客园
首页
新随笔
联系
订阅
管理
2021年2月3日
使用jieba分词进行中文词语的分割
摘要: 实现代码: from sklearn.feature_extraction.text import CountVectorizer from sklearn.feature_extraction import DictVectorizer import jieba def cut_word(text
阅读全文
posted @ 2021-02-03 20:01 土豆面包
阅读(232)
评论(0)
推荐(0)
编辑
公告