ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。

ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。| Id | Title | DateAdded | SourceUrl | PostType | Body | BlogId | Description | DateUpdated | IsMarkdown | EntryName | CreatedTime | IsActive | AutoDesc | AccessPermission |

| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------|
| 18164227| ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。| 2024-04-28T17:46:00| | BlogPost| ## ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。| Id | Title | DateAdded | SourceUrl | PostType | Body | BlogId | Description | DateUpdated | IsMarkdown | EntryName | CreatedTime | IsActive | AutoDesc | AccessPermission |
| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------| -------------|
| 16148852| ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。| 2022-04-15T14:17:00| | BlogPost|

 

问题原因:ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。

我们来看一个例子: www.jboso.com

重要提示:不能再已经导入数据的index中修改mapping,所以建立index之后立即配置分词器字段,然后再导入数据。

  1. 首先从https://github.com/medcl/elasticsearch-analysis-ik/tree/master下载ES对应版本的IK插件进行安装,安装方法参考链接中的文档。
  2. 使用以下命令重新创建一个Index

    curl -XPUT http://localhost:9200/cdh_es

  3. 设置需要使用IK分词器的字段,其中cdh_es是index,testdata是type,desc是需要进行IK分词的字段。

    curl -XPOST http://localhost:9200/cdh_es/testdata/_mapping -d ‘{“properties”: {“desc”: {“type”: “text”, “analyzer”: “ik_smart”, “search_analyzer”: “ik_smart”}}}’

  4. 其中分词有两种设置方法,ik_max_word和ik_smart,他们的区别如下,可以根据自己项目的情况进行选择:

    ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合;

    ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”。

  5. 添加数据后就能进行查询了。

| 748395| ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。| 2023-07-11T12:07:00| false| | 2022-04-15T14:17:10.283| true| ​ 问题原因:ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。 我们来看一个例子: www.jboso.com 重要提示:不能再已经导入数据的index中修改mapping,所以建立index之后立即配置分词器字段,然后再导入数据。 首先| Anonymous| | 648658| | 2024-04-28T17:46:00| true| | 2024-04-28T17:45:49.76| true| ES默认分词规则不能支持中文,通过安装IK Analysis for Elasticsearch支持中文分词。| Id | Title | DateAdded | SourceUrl | PostType | Body | BlogId | Description | DateUpdated | I| Anonymous|
posted @   RalphLauren  阅读(18)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现
点击右上角即可分享
微信分享提示