摘要:
###分词器的使用 ###创建 PUT test_index { "settings": { "analysis": { "analyzer": { "my_custom_analyzer" :{ "type": "custom", "tokenizer": "standard", "char_fi 阅读全文
posted @ 2022-10-09 22:36
羊汤烧饼
阅读(43)
评论(0)
推荐(0)
摘要:
###安装ik 1 docker exec -it 容器ID /bin/bash 2 #下载对应版本,我用的es是8.4.1 ,[地址](https://github.com/medcl/elasticsearch-analysis-ik/releases) ./bin/elasticsearch- 阅读全文
posted @ 2022-10-09 22:14
羊汤烧饼
阅读(79)
评论(0)
推荐(0)
摘要:
Standard - 默认分词器,按词切分支持多语言,并小写处理 Simple - 非字母切分, 小写处理 (UU-a 切成 uu,a doni`t 切成 doni 和 t) Stop - 小写处理,停用词过滤(the,a,is,2) Whitespace - 按照空格切分,不转小写 Keyword 阅读全文
posted @ 2022-10-09 21:59
羊汤烧饼
阅读(40)
评论(0)
推荐(0)

浙公网安备 33010602011771号