JAVA开发示例之IK分词器的初步使用
开发步骤
添加依赖
// IK中文分词相关依赖 implementation 'com.github.magese:ik-analyzer:8.5.0'
可配置需要的扩展词及停止词
<?xml version="1.0" encoding="utf-8" ?> <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd"> <properties> <comment>IK Analyzer 扩展配置</comment> <!--用户可以在这里配置自己的扩展字典 --> <entry key="ext_dict">extwords.dic;</entry> <!--用户可以在这里配置自己的扩展停止词字典--> <entry key="ext_stopwords">stopwords.dic;</entry> </properties>
代码示例
package com.wywtime.toolbox; import org.junit.jupiter.api.Test; import org.wltea.analyzer.core.IKSegmenter; import org.wltea.analyzer.core.Lexeme; import org.wltea.analyzer.dic.Dictionary; import java.io.IOException; import java.io.StringReader; import java.util.ArrayList; import java.util.Arrays; import java.util.List; import java.util.stream.Collectors; public class WordAnalyzerTest { @Test public void testWordAnalyzer() throws IOException { String text = "人生如逆旅,我亦是行人"; StringReader sr=new StringReader(text); IKSegmenter ik=new IKSegmenter(sr, true); // 如果不加下面这句,解析结果是:人|生如|逆旅|我|亦是|行人 Dictionary.getSingleton().disableWords(Arrays.asList("生如","亦是")); Lexeme lex=null; List<String> words = new ArrayList<>(); while((lex=ik.next())!=null){ words.add(lex.getLexemeText()); } // 输出结果为:人生|如|逆旅|我亦|是|行人 System.out.println(words.stream().collect(Collectors.joining("|"))); } }
遇到的问题
解析得到的结果一直不是想要的,然后自定义了扩展词,还是不行,最后,也是深入源码,才发现Dictionary类里有个disableWords方法。这说明词与词之间是有优先级的,实际应用时,肯定需要根据不同场景去确定分词的优先级。
本文来自博客园,作者:白首码农,转载请注明原文链接:https://www.cnblogs.com/bsmn/p/16270248.html
分类:
JAVA
标签:
java
, ik analyzer
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· Manus爆火,是硬核还是营销?
· 一文读懂知识蒸馏
· 终于写完轮子一部分:tcp代理 了,记录一下