摘要: 首先声明:我对Lucene.Net并不熟悉,但搜索确实是分词的一个重要应用,所以这里还是尝试将两者集成起来,也许对你有一参考。 看到了两个中文分词与Lucene.Net的集成项目:Lucene.Net.Analysis.PanGu和Lucene.Net.Analysis.MMSeg,参考其中的代码实 阅读全文
posted @ 2019-04-10 17:43 许宝 阅读(608) 评论(0) 推荐(0) 编辑
摘要: 简介 平时经常用Python写些小程序。在做文本分析相关的事情时免不了进行中文分词,于是就遇到了用Python实现的结巴中文分词。jieba使用起来非常简单,同时分词的结果也令人印象深刻,有兴趣的可以到它的在线演示站点体验下(注意第三行文字)。 .NET平台上常见的分词组件是盘古分词,但是已经好久没 阅读全文
posted @ 2019-04-10 17:32 许宝 阅读(1682) 评论(0) 推荐(1) 编辑