2-分词器

分词器的作用是什么?

  ES在创建倒排索引时需要对文档分词;在用户搜索时,需要对用户输入内容分词。但默认的分词规则对中文处理并不友好。处理中文分词,一般会使用IK分词器。https://github.com/medcl/elasticsearch-analysis-ik

IK分词器有几种模式?

ik_smart:智能切分,粗粒度

ik_max_word:最细切分,细粒度

两种分词器示例

复制代码
#测试分词器分词效果 ik_smart:最少切分   ik_max_word:最细切分
POST /_analyze
{
  "analyzer": "ik_smart",
  "text": "程序员学习java太玩好拉"
}

POST /_analyze
{
  "analyzer": "ik_max_word",
  "text": "程序员学习java太玩好拉"
}
View Code
复制代码

IK分词器如何拓展词条?如何停用词条?

要拓展或者禁用ik分词器的词库,只需要修改一个ik分词器目录中的config目录中的IkAnalyzer.cfg.xml文件:

/var/lib/docker/volumes/es-plugins/_data/ik/config

打开,修改前

修改,添加需要读取的文件

 

stopword.dic文件已存在,无需创建

注意,里面应该一个词一行

注意修改好后需要重启elasticsearch

docker restart es

# 查看 日志

docker logs -f es

日志中已经成功加载ext.dic配置文件



感谢您的阅读,如果您觉得阅读本文对您有帮助,请点一下“推荐”按钮。本文欢迎各位转载,但是转载文章之后必须在文章页面中给出作者和原文连接
posted @   JustJavaIt  阅读(121)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 2025年我用 Compose 写了一个 Todo App
· 张高兴的大模型开发实战:(一)使用 Selenium 进行网页爬虫
历史上的今天:
2020-07-24 JVM -- GC介绍
点击右上角即可分享
微信分享提示