elasticsearch安装ik分词器插件
elasticsearch安装ik分词器插件
分词∶即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,这显然是不符合要求的,所以我们需要安装中文分词器ik来解决这个问题。
IK提供了两个分词算法:ik_ smart:最少切分、ik_max_word:最细粒度划分
安装ik分词器插件
- github下载ik分词器插件压缩包,跟elasticsearch版本保持一致
- 在elasticsearch目录下的plugins文件夹里新建文件夹,用来存放ik分词器插件
- 将ik分词器压缩包解压到新建的文件夹中
- 重启elasticsearch服务
- 查看是否加载ik分词器插件
D:\java\es\elasticsearch-7.11.2-windows-x86_64\elasticsearch-7.11.2\bin>elasticsearch-plugin list
Future versions of Elasticsearch will require Java 11; your Java version from [D:\java\jdk\jre] does not meet this requirement. Consider switching to a distribution of Elasticsearch with a bundled JDK. If you are already using a distribution with a bundled JDK, ensure the JAVA_HOME environment variable is not set.
ik
打开kibana测试
ik_ smart:最少切分
ik_max_word:最细粒度划分(穷尽词库的可能)
ik分词器分的词可能达不到我们的需求,所以我们可以将自己需要的词加到分词器的字典中,在ik分词器中增加自己的配置
- 在ik分词器插件的config目录下新建dic文件(dic文件就是字典),eg:yl.dic
- 将自己需要的词添加到dic文件中
- 打开IKAnalyzer.cfg.xml配置文件配置自己的字典
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">yl.dic</entry>
- 重启es服务以及kibana服务即可
记得快乐
分类:
ElasticSearch
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 零经验选手,Compose 一天开发一款小游戏!
· 一起来玩mcp_server_sqlite,让AI帮你做增删改查!!