用lucene4.10.2分词器进行分词
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 | import java.util.Iterator; import java.util.LinkedList; import java.util.List; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.analysis.tokenattributes.CharTermAttribute; import org.apache.lucene.analysis.util.CharArraySet; public class StandardAnalyzerTest { @SuppressWarnings ( "resource" ) public static void main(String[] args) { try { // 要处理的文本 String text = "你好*hello,哈哈! !'ni> < !' hao->。“我”.192.168.8.10" ; // 自定义停用词 List<String> sw = new LinkedList<String>(); // custom stopWords set sw.add( "" ); CharArraySet stopWords = new CharArraySet(sw, true ); // 加入系统默认停用词 Iterator<Object> itor = StandardAnalyzer.STOP_WORDS_SET.iterator(); while (itor.hasNext()) { stopWords.add(itor.next()); } // 标准分词器(Lucene内置的标准分析器,会将语汇单元转成小写形式,并去除停用词及标点符号) StandardAnalyzer analyzer = new StandardAnalyzer(stopWords); TokenStream ts = analyzer.tokenStream( "field" , text); CharTermAttribute ch = ts.addAttribute(CharTermAttribute. class ); ts.reset(); while (ts.incrementToken()) { System.out.println(ch.toString()); } ts.end(); ts.close(); } catch (Exception ex) { ex.printStackTrace(); } } } 分词结果如下: 你 好 hello 哈 哈 ni hao 我 192.168 . 8.10 |
分类:
Lucene系列
标签:
用lucene4.10.2
, 分词器
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?