Elasticsearch学习笔记(十四)relevance score相关性评分的计算(1)
一、多shard场景下relevance
score不准确问题
1、问题描述:
多个shard下,如果每个shard包含指定搜索条件的document数量不均匀的情况下,会导致在某个shard上document数量少的时候,计算该指定搜索条件的document的相关性评分要虚高。导致该document比实际真正想要返回的document的评分要高。
2、解决
(1)生产环境下,数据量大,尽可能实现均匀分配
数据量很大的话,其实一般情况下,在概率学的背景下,es都是在多个shard中均匀路由数据的,路由的时候根据_id,负载均衡比如说有10个document,title都包含java,一共有5个shard,那么在概率学的背景下,如果负载均衡的话,其实每个shard都应该有2个doc,title包含java如果说数据分布均匀的话,其实就没有刚才说的那个问题了(2)测试环境下,将索引的primary shard设置为1个,number_of_shards=1,index settings如果说只有一个shard,那么当然,所有的document都在这个shard里面,就没有这个问题了(3)测试环境下,搜索附带search_type=dfs_query_then_fetch参数,会将local IDF取出来计算global IDF计算一个doc的相关度分数的时候,就会将所有shard对的local IDF计算一下,获取出来,在本地进行global IDF分数的计算,会将所有shard的doc作为上下文来进行计算,也能确保准确性。但是production生产环境下,不推荐这个参数,因为性能很差。
二、多字段搜索相关性评分计算(best
fields策略,most_field策略)
1、为帖子数据增加content字段
POST /forum/article/_bulk{ "update": { "_id": "1"} }{ "doc" : {"content" : "i like to write best elasticsearch article"} }{ "update": { "_id": "2"} }{ "doc" : {"content" : "i think java is the best programming language"} }{ "update": { "_id": "3"} }{ "doc" : {"content" : "i am only an elasticsearch beginner"} }{ "update": { "_id": "4"} }{ "doc" : {"content" : "elasticsearch and hadoop are all very good solution, i am a beginner"} }{ "update": { "_id": "5"} }{ "doc" : {"content" : "spark is best big data solution based on scala ,an programming language similar to java"} }
2、搜索title或content中包含java或solution的帖子下面这个就是multi-field搜索,多字段搜索
GET /forum/article/_search{"query": {"bool": {"should": [{ "match": { "title": "java solution" }},{ "match": { "content": "java solution" }}]}}}
3、结果分析
期望的是doc5,结果是doc2,doc4排在了前面计算每个document的relevance score:每个query的分数,乘以matched query数量,除以总query数量算一下doc4的分数{ "match": { "title": "java solution" }},针对doc4,是有一个分数的{ "match": { "content": "java solution" }},针对doc4,也是有一个分数的所以是两个分数加起来,比如说,1.1 + 1.2 = 2.3matched query数量 = 2总query数量 = 22.3 * 2 / 2 = 2.3算一下doc5的分数{ "match": { "title": "java solution" }},针对doc5,是没有分数的{ "match": { "content": "java solution" }},针对doc5,是有一个分数的所以说,只有一个query是有分数的,比如2.3matched query数量 = 1总query数量 = 22.3 * 1 / 2 = 1.15doc5的分数 = 1.15 < doc4的分数 = 2.3
4、best fields策略,dis_max
best fields策略,就是说,搜索到的结果,应该是某一个field中匹配到了尽可能多的关键词,被排在前面;而不是尽可能多的field匹配到了少数的关键词,排在了前面dis_max语法,直接取多个query中,分数最高的那一个query的分数即可{ "match": { "title": "java solution" }},针对doc4,是有一个分数的,1.1{ "match": { "content": "java solution" }},针对doc4,也是有一个分数的,1.2取最大分数,1.2{ "match": { "title": "java solution" }},针对doc5,是没有分数的{ "match": { "content": "java solution" }},针对doc5,是有一个分数的,2.3取最大分数,2.3然后doc4的分数 = 1.2 < doc5的分数 = 2.3,所以doc5就可以排在更前面的地方,符合我们的需要GET /forum/article/_search{"query": {"dis_max": {"queries": [{ "match": { "title": "java solution" }},{ "match": { "content": "java solution" }}]}}}
5、dis_max的优化、改进
dis_max只取某一个query最大的分数,完全不考虑其他query的分数。这样存在返回的document不是预期的情况
tie_breaker参数的意义,在于说,将其他query的分数,乘以tie_breaker,然后综合与最高分数的那个query的分数,综合在一起进行计算除了取最高分以外,还会考虑其他的query的分数tie_breaker的值,在0~1之间,是个小数,就okGET /forum/article/_search{"query": {"dis_max": {"queries": [{ "match": { "title": "java beginner" }},{ "match": { "body": "java beginner" }}],"tie_breaker": 0.3}}}6.基于multi_match语法实现dis_max+tie_breakerGET /forum/article/_search{"query": {"multi_match": {"query": "java solution","type": "best_fields","fields": [ "title^2", "content" ], //title^2表示 boost设置为2"tie_breaker": 0.3,"minimum_should_match": "50%"}}}(1)minimum_should_match,主要是用来干嘛的?
去长尾,long tail长尾,比如你搜索5个关键词,但是很多结果是只匹配1个关键词的,其实跟你想要的结果相差甚远,这些结果就是长尾minimum_should_match,控制搜索结果的精准度,只有匹配一定数量的关键词的数据,才能返回
(2)title^2表示 boost设置为2GET /forum/article/_search{"query": {"dis_max": {"queries": [{"match": {"title": {"query": "java beginner","minimum_should_match": "50%","boost": 2}}},{"match": {"content": {"query": "java beginner","minimum_should_match": "50%"}}}],"tie_breaker": 0.3}}}7、most_fields策略best-fields策略,主要是说将某一个field匹配尽可能多的关键词的doc优先返回回来most-fields策略,主要是说尽可能返回更多field匹配到某个关键词的doc,优先返回回来不同字段使用不同的分词器,对应不同的查询行为。
POST /forum/_mapping/article{"properties": {"sub_title": {"type": "string","analyzer": "english", // sub_title 使用english分词器"fields": {"std": {"type": "string","analyzer": "standard" //sub_title字段的子字段std使用standard分词器}}}}}sub_title字段english分词器:
会将单词还原为其最基本的形态,stemmer
learning --> learnlearned --> learncourses --> course
subtitle.std子字段standard分词器: 保留当前字段值得原始值得时态信息等
POST
/forum/article/_bulk
{ "update": { "_id": "1"} }{ "doc" : {"sub_title" : "learning more courses"} }{ "update": { "_id": "2"} }{ "doc" : {"sub_title" : "learned a lot of course"} }{ "update": { "_id": "3"} }{ "doc" : {"sub_title" : "we have a lot of fun"} }{ "update": { "_id": "4"} }{ "doc" : {"sub_title" : "both of them are good"} }{ "update": { "_id": "5"} }{ "doc" : {"sub_title" : "haha, hello world"} }GET /forum/article/_search{"query": {"match": {"sub_title": "learning courses"}}}
基于multi_match的most_fields
GET /forum/article/_search{"query": {"multi_match": {"query": "learning courses","type": "most_fields","fields": [ "sub_title", "sub_title.std" ]}}}
8、best_fields与most_fields:
(1)best_fields,是对多个field进行搜索,挑选某个field匹配度最高的那个分数,同时在多个query最高分相同的情况下,在一定程度上考虑其他query的分数。简单来说,你对多个field进行搜索,就想搜索到某一个field尽可能包含更多关键字的数据优点:通过best_fields策略,以及综合考虑其他field,还有minimum_should_match支持,可以尽可能精准地将匹配的结果推送到最前面缺点:除了那些精准匹配的结果,其他差不多大的结果,排序结果不是太均匀,没有什么区分度了实际的例子:百度之类的搜索引擎,最匹配的到最前面,但是其他的就没什么区分度了(2)most_fields,综合多个field一起进行搜索,尽可能多地让所有field的query参与到总分数的计算中来,此时就会是个大杂烩,出现类似best_fields案例最开始的那个结果,结果不一定精准,某一个document的一个field包含更多的关键字,但是因为其他document有更多field匹配到了,所以排在了前面;所以需要建立类似sub_title.std这样的field,尽可能让某一个field精准匹配query string,贡献更高的分数,将更精准匹配的数据排到前面优点:将尽可能匹配更多field的结果推送到最前面,整个排序结果是比较均匀的缺点:可能那些精准匹配的结果,无法推送到最前面实际的例子:wiki,明显的most_fields策略,搜索结果比较均匀,但是的确要翻好几页才能找到最匹配的结果
道在我心,一以贯之 HanWang