04-Elasticsearch-ES集成IK分词器

分词器

分词器汇总

分词器

拆分方式

standard

空格

simple

非字母

whitespace

空格

stop

去除英文的助词(a the is)

keyword

不拆分(关键词)

ik_max_word

最大词汇拆分

ik_smart

最小词汇拆分

默认分词器

POST /_analyze
{
  "analyzer": "standard",
  "text": ["I study in imooc.com!"]
}

默认分词器, 英文按照空格拆分, 中文直接拆成单个汉字, 大写自动转小写

在指定索引中分析指定字段

POST /my_doc/_analyze
{
  "analyzer": "standard",
  "field": "desc",
  "text": ["study in imooc"]
}

ES集成IK

下载

https://github.com/medcl/elasticsearch-analysis-ik/releases?page=7

安装

上传到Linux

# 解压到插件库下
unzip elasticsearch-analysis-ik-7.4.2.zip -d /usr/local/es/plugins/ik

重启es

ik集成完成

配置自定义字库

修改ik/config/IKAnalyzer.cfg.xml

vi IKAnalyzer.cfg.xml

vi cust.dic

再次执行分词

okk

posted @ 2022-10-03 04:59  彼岸舞  阅读(43)  评论(0编辑  收藏  举报