Elasticsearch之Analyze
1、analyzer的组成
CharacterFilters:针对原始文本进行处理例如去掉html
Tokenizer:按照规则切分单词
Token Filter:将切分好的单词进行二次加工
2、分词器
standard 默认分词器,按词切分,小写处理
stop 小写处理,停用词过滤(a,the,is)
simple 按照非字母切分(符号被过滤),小写处理
whitespace 按照空格切分,不转小写
keyword 不分词,直接输入当做输出
pattern 正则表达式,默认\W+(非字符分割)
language 提供了30多种常见的语言分词器
customer 自定义分词器
3、使用_analyzer API
指定analyzer进行测试
返回结果字段含义:
token是一个实际被存储在索引中的词
position指明词在原文本中是第几个出现的
start_offset和end_offset表示词在原文本中占据的位置。
4、中文分词(ik+pingyin)
ik+pinyin插件的安装
https://github.com/medcl/elasticsearch-analysis-pinyin/releases
https://github.com/medcl/elasticsearch-analysis-ik/releases
将下载的安装包分别放在此路径下对应的目录中
选择对应的版本,保持与ES版本一致
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!