摘要: 中文分词,调用现成的 lucene.jar 与IKAnalyzer.jar 进行 但是在代码上有一些问题 IKtokenizer.getAttribute()函数 总是 报错 也可能是 lucene版本问题 导致,具体原因有待解决 阅读全文
posted @ 2020-02-06 21:27 fsdx 阅读(92) 评论(0) 推荐(0) 编辑