Elasticsearch 优化

Elasticsearch是一个基于Lucene的搜索服务器,其搜索的核心原理是倒排索引,今天谈下在日常项目中使用它遇到的一些问题及优化解决办法。

一. 搜索的深度分页问题

在日常项目中,经常会有分页搜索并支持跳页的需求,类似百度、Google搜索那样,使用ES进行这类需求的搜索时一般采用from/size的方式,from指明开始的位置,size指定获取的条数,通过这种方式获取数据称为深度分页。

通过这种分页方式当我取 from为11000,size为10时,发现无法获取:

ES报错说超过了max_result_window

初步解决方案:

我修改了索引的设置,将max_result_window设置为了10000000:

PUT ccnu_resource/_settings
{
  "index": {
    "max_result_window": 10000000
  }
}

 这样做虽然解决了问题,并且目前在性能上也没有太大问题。一次当我用Google搜索时时,突发奇想,想试试Google的最大分页数:

 我发现Google提示:Google为所有查询的结果数都不会超过1000,然后我迅速尝试了百度和微软的BING:

百度只显示76页,当修改url时,76页以外的也不会显示,这时候会跳到第一页,微软BING只会显示97页,当你继续下一页时它会回退当前页的前一页,这时候我重新查阅了ES分页遍历相关资料,这种from/to的方式采用的是深度分页机制,并且目前所有分布式搜索引擎都存在深度分页的问题。

ES深度分页:

由于数据是分散存储在各个分片上的,所以ES会从每个分片上取出当前查询的全部数据,比如from:9990,size:10,ES会在每个分片上取10000个document,然后聚合每个分片的结果再排序选取前10000个document;所以当from的值越来越大,页数越来越多时,ES处理的document就越多,同时占用的内存也越来越大,所以当数据量很大、请求数很多时,搜索的效率会大大降低;所以ES默认max_result_window为10000。

所以如果要使用from/size的方式分页遍历,最好使用ES默认的max_result_window,可以根据自己的业务需求适当增加或减少max_result_window的值,但是建议以跳页的方式分页最好控制页数在1000以内,max_result_window的值最好不要修改。

 

二. Mapping设置与Query查询优化问题

在ES中创建Mappings时,默认_source是enable=true,会存储整个document的值,当执行search操作的时,会返回整个document的信息。如果只想返回document的部分fields,但_source会返回原始所有的内容,当某些不需要返回的field很大时,ES查询的性能会降低,这时候可以考虑使用store结合_source的enable=false来创建mapping。

 

PUT article_index
{
  "mappings": {
    "es_article_doc":{
      "_source":{
        "enabled":false
      },
      "properties":{
        "title":{
          "type":"text",
          "fields":{
            "keyword":{
              "type":"keyword"
            }
          },
          "store":true
        },
        "abstract":{
          "type":"text",
          "fields":{
            "keyword":{
              "type":"keyword"
            }
          },
          "store":true
        },
        "content":{
          "type":"text",
          "store":true
        }
      }
    }
  }
}

 

可以设置_source的enable:false,来单独存储fields,这样查询指定field时不会加载整个_source,通过stored_fields返回指定的fields,并且可以对指定field做高亮显示的需求:

GET article_index/_search
{
  "stored_fields": [
    "title"
  ],
  "query": {
    "match": {
      "content": "async"
    }
  },
  "highlight": {
    "fields": {
      "content": {}
    }
  }
}

 使用store在特定需求下会一定程度上提高ES的效率,但是store对于复杂的数据类型如nested类型不支持:

# nested类型
PUT article_index_nested
{
  "mappings": {
    "es_article_nes_doc": {
      "properties": {
        "title": {
          "type": "text",
          "fields": {
            "keyword": {
              "type": "keyword"
            }
          }
        },
        "comment": {
          "type": "nested",
          "properties": {
            "username": {
              "type": "keyword"
            },
            "content": {
              "type": "text"
            }
          }
        }
      }
    }
  }
}

添加数据:

PUT article_index_nested/es_article_nes_doc/1
{
  "title": "Harvard_fly 浅谈 ES优化",
  "comments": [
    {
      "username": "alice",
      "date": "2018-11-13",
      "content": "aaa"
    },
    {
      "username": "bob",
      "date": "2018-11-12",
      "content": "bbb"
    }
  ]
}

这种nested类型的store就不支持了,只能通过_source返回数据,如果需要返回指定field可以在search中通过_source指定field:

GET article_index_nested/_search
{
  "_source": ["title","comments"],
  "query": {
    "bool": {
      "must": [
        {
          "match": {
            "comments.username": "alice"
          }
        },
        {
         "match": {
            "comments.content": "aaa"
          }
        }
      ]
    }
  }
}

 

三. ES读写优化问题

 ES读性能的优化主要是查询的优化,在查询中尽量使用filter,如果遇到查询慢可以使用explain进行慢查询,进而优化数据模型和query;对于ES的写优化,最好采用bulk批量插入,下面以python的api作为例子说明:

    def bulk_insert_data(cls, qid_data_list):
        """
        批量插入试题到ES库
        :param qid_data_list: qid ES结构列表
        :return:
        """
        if not isinstance(qid_data_list, (list, )):
            raise ValueError('qid_data_list数据结构为列表')

        es = connections.get_connection()
        index_name = cls._doc_type.index
        doc_type_name = cls.snake_case(cls.__name__)

        def gen_qid_data():
            for dt in qid_data_list:
                yield {
                    '_index': index_name,
                    '_type': doc_type_name,
                    '_id': dt['qid'],
                    '_source': dt
                }

        bulk(es, gen_qid_data())

使用bulk批量插入数据到ES,在Python中bulk位于elasticsearch.helpers下,但是使用bulk并不是一次插入的数据量越大越好,当一次插入的数据量过大时,ES的写性能反而会降低,具体跟ES硬件配置有关,我测试的一次插入3000道试题详情数据会比一次2000道速度慢,3000道试题详情大约30M左右。

 如果追求写入速度,还可以在写入前将replicas副本设置为0,写入完成后再将其设置为正常副本数,因为ES在写入数据时会将数据写一份到副本中,副本数越多写入的速度会越慢,但一般不建议将replicas副本设置为0,因为如果在写入数据的过程中ES宕机了可能会造成数据丢失。

 

四. ES配置优化问题

在ES的集群配置中,master是ES选举出来的,在一个由node1、node2、node3组成的集群中初始状态node1为主节点,node1由于网络问题与子节点失去联系,这时候ES重新选举了node2为主节点,当node1网络恢复时,node1会维护自己的集群node1为主节点,这时候集群中就存在node1和node2两个主节点了,并且维护不同的cluster state,这样就会造成无法选出正确的master,这个问题就是脑裂问题。

脑裂问题的解决办法(quorum机制):

quorum计算公式:quorum = 可选举节点数/2 + 1

只有当可选举节点数大于等于quorum时才可进行master选举,在3个可选举节点中,quorum=3/2+1=2   在node1失去网络响应后 node2和node3可选举节点为2 可以选举,当node1恢复后,node1只有一个节点,可选举数为1,小于quorum,因此避免了脑裂问题;即设置discovery.zen.minimum_master_nodes:quorum,可避免脑裂问题

posted @ 2018-11-13 16:45  HarvardFly  阅读(1509)  评论(0编辑  收藏  举报