摘要:
一、建立ik中文分词器 1、下载ik中文分词器 进入https://github.com/medcl/elasticsearch-analysis-ik 使用第一种方式安装,进入https://github.com/medcl/elasticsearch-analysis-ik/releases 选 阅读全文
posted @ 2020-07-17 17:49 work hard work smart 阅读(561) 评论(0) 推荐(0) 编辑
|
|||
摘要:
一、建立ik中文分词器 1、下载ik中文分词器 进入https://github.com/medcl/elasticsearch-analysis-ik 使用第一种方式安装,进入https://github.com/medcl/elasticsearch-analysis-ik/releases 选 阅读全文
posted @ 2020-07-17 17:49 work hard work smart 阅读(561) 评论(0) 推荐(0) 编辑
摘要:
1、什么是分词 把文本转换为一个个的单词,分词称之为analysis. ES默认只对英文语句做分词,中文不支持,每个中文汉字都会被拆分 2、获得分词 http://192.168.127.130:9200/_analyze ES内置分词器: analyzer standard: 默认标准分词器,大写 阅读全文
posted @ 2020-07-17 11:15 work hard work smart 阅读(300) 评论(0) 推荐(0) 编辑 |
|||