Elasticsearch 分词功能
分词器定义:
从一串文本中切分出一个一个的词条,并对每个词条进行标准化
分词处理过程:
1、分词前预处理:过滤HTML标签、特殊符号转换
2、分词:
3、标准化:大小写转换、单复数转换、同义词转换
ES内置分词器:
1、standard分词器:默认将词汇单元转换成小写形式,去掉领用词和标点符号,中文按单字切分
2、simple分词器:先通过非字母字符来分割文本信息,然后奖词汇单元统一为小写形式。也会去掉数字类型字条
3、whitespace分词器:能去掉空格;但不能大小写转换,不支持中文;也不进行标准化处理
4、language分词器:特定语言分词器,不支持中文
中文分词器(插件):
ik_max_word: 将文本做最细精度的拆分; 尽可能多的拆分出词语
ik_smart: 做粗粒度的拆分; 已被分出的词语将不会再次被其它词语占有
搜索匹配度计算:
1、相关因素
TF:词条在当前文档里出现频率,次数越多相关度超高
IDF:词条在所有文档里出现频率,次数越多相关度越低
FL:字段长度,字段越长 相关度越低
2、计算过程
explain=true显示计算方式; 结果_score计算结果,"_explanation"显示计算过程
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!