测试Ik分词器以及增加自己的词汇
测试
启动kibana,打开开发工具
ik_smart:最少切分
GET _analyze { "analyzer": "ik_smart", "text": ["中华人民共和国"] }
ik_max_word:最细粒度划分,穷尽词库。
GET _analyze { "analyzer": "ik_max_word", "text": ["中华人民共和国"] }
我们输入一个人名:比如说宋殿鑫想当Java开发工程师,宋殿鑫是人名,但是被分开了。
出现问题:有些词被拆开了!
这种自己需要的词,要加到我们的分词字典中!
Ik分词器增加自己的配置
来到 elasticsearch-7.6.1\plugins\ik\config 目录下,打开IKAnalyzer.cfg.xml
我们先创建一个dic文件,也就是字典,其实我们打开其他的dic文件也是一样的。
编写后注入到配置文件中。
然后重启es和kibana,可以看到我们新加的文件
再分词,可以发现,宋殿鑫成为了单独的字段,没被细分
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· 展开说说关于C#中ORM框架的用法!
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?