elasticsearch Ik分词器

Ik 分词器:比较适合中文的一个分词器

分词器:把一段文字划分成一个个关键字,我们在搜索的时候会把自己的搜索信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行匹配操作。elasticsearch默认分词器是把每个字分成一个词,这显然不行,所以想使用中文,建议用IK分词器

IK:有两种算法:ik_smart(最少切分),ik_max_word(最细粒度划分)

下面看看IK的使用

1、下载安装

   下载地址:https://github.com/medcl/elasticsearch-analysis-ik

2、安装

   解压到elasticsearch文件中的plugins内(随便新建一个文件夹解压到里面,把压缩包删除),

    

 

 

3、重启ES,观察(plugin已加载analysis-ik)

 

 4、kibana测试

 

 

 

对于ik_max_word(最细粒度划分)(他会穷尽词库的可能划分),这肯定得有依据,那就是ik中的字典

 

那么问题来了:如果你想按照自己组的词查询怎么办?

  这就得用字典了,自己写一个字典然后配置到ik的配置文件内

  1、新建之后,笔记本打开,输入自己的词

  

  2、配置(配置文件在config内,就一个.xml文件,很好找)

  

 

   3、重启es

再去测试,自己感悟  哈哈哈

如有不足 多多指教,谢谢!

文章参考:Java 狂神说

posted on 2020-10-29 09:57  bkytian  阅读(148)  评论(0编辑  收藏  举报

导航