摘要: 安装 参考:https://www.cnblogs.com/zrmw/p/10869325.html 分词: 注意先分句再分词 ,这些对象均来自nltk.tokenize库 1. word_tokenize 导入nltk的tokenize库后,tokens = nltk.word_tokenize( 阅读全文
posted @ 2019-11-16 20:17 哦摩西罗伊 阅读(857) 评论(0) 推荐(0) 编辑