ElasticSearch安装中文分词器(插件)、分词测试
https://github.com/medcl/elasticsearch-analysis-ik
分词测试:
https://www.elastic.co/guide/en/elasticsearch/reference/6.8/indices-analyze.html
请求URL:
http://127.0.0.1:9200/_analyze
请求方式:
POST
请求体/类型(JSON):
{
"analyzer": "ik_max_word",
"text":"我是中国人"
}
**ik_max_word: **
会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合,适合 Term Query(精确匹配)
**ik_smart: **
会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”,适合 Phrase 查询。(Phrase就是短语句查询,比如你的关键词是"python web",这个词查询的时候不会被分词了,也就是要求数据中必须出现python web)
本文来自博客园,作者:运维爱背锅,转载请注明原文链接:https://www.cnblogs.com/juelian/p/17560160.html
分类:
ElasticSearch数据库
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步