Fork me on GitHub

分布式系统的可用性和扩展性

高可用性
服务可用性 – 允许有节点停止服务
数据可用性 – 部分节点丢失,不会丢失数据
可扩展性
请求量提升 / 数据的不断增长(将数据分布到所有节点上)

分布式特性

Elasticsearch 的分布式架构的好处
存储的水平扩容
提高系统的可用性,部分节点停止服务,整个集群的服务不受影响
Elasticsearch的分布式架构
不同的集群通过不同的名字来区分,默认名字”elasticsearch”
通过配置文件修改,或者在命令行中 -E cluster.name=geektime 进行设定
一个集群可以有一个或多个节点

节点

节点是一个Elasticsearch的实例
本质上就是一个JAVA进程
一台机器上可运行多个Elasticsearch进程,但是生产环境一般建议一台机器上只运行一个Elasticsearch实例
每个节点都有名字,通过文件配置,或者启动时 -E cluster.name=node1指定
每一个节点在启动之后,会分配一个UID,保存在data目录下

Master-eligible nodes 和 Master node

每个节点启动后,默认就是一个Master eligible 节点
可以设置node.master:false 禁止
Master-eligible节点可以参加选主流程,成为Master节点
当第一个节点启动时候,它会将自己选举成Master节点
每一个节点上都保存了集群的状态,只有Master节点才能修改集群的状态信息
集群状态(Cluster State),维护了一个集群中,必要的信息
所有的节点信息
所有的索引和其相关的Mapping 与 Setting 信息
分片的路由信息
任意节点都能修改信息会导致数据的不一致性

Data Node & Coordinating Node

Data Node
可以保存数据的节点,叫做Data Node。负责保存分片数据。在数据扩展上起到了至关重要的作用
Coordinating Node
负责接受Client的请求,将请求发到合适的节点,最终把结果汇集到一起
每个节点默认都起到了Coordinating Node的职责

其他节点类型

Hot & Warm Node
不同的硬件配置的Data Node , 用来实现 Hot & Warm 架构,降低集群部署的成本
Machine Learning Node
负责跑机器学习的Job,用来做异常检测
Cross Cluster Search
连接到不同的Elasticsearch集群,并且支持将这些集群当成一个单独的集群处理配置

配置节点类型

开发环境中一个节点可以承担多种角色
生产环境中,应该设置单一的角色的节点(dedicated node)

节点类型 配置参数 默认值
master |eligible |node.master |true
data |node.data |true|
ingest |node.ingest |true|
coordinating |无 |每个节点默认都是coordinating节点。设置其他类型全部为false
machine learning | |node.ml |true(需 enable x-pack)

分片(Primary Shard & Replica Shard)

主分片,用以解决数据水平扩展的问题。通过主分片,可以将数据分布到集群内的所有节点之上
一个分片是一个运行的Lucene的实例
主分片数在索引创建时指定,后续不允许修改,除非Reindex
副本,用以解决数据高可用的问题。分片是主分片的拷贝
副本分片数,可以动态调整
增加副本数,还可以在一定程度上提高服务的可用性(读取的吞吐)
一个三节点的集群中,blogs索引的分片分布情况
思考:增加一个节点或改大主分片数对系统的影响?
PUT /blogs
{
	"settings" : {
		"number_of_shards" : 3,
		"number_of_replicas" : 1
}
}

分片的设定

对于生产环境中分片的设定,需要提前做好容量规划
分片数设置过小
导致后续无法增加节点实现水平扩展
单个分片的数据量大大,导致数据重新分配耗时
分片数设置过大,7.0开始。默认主分片设置成1,解决了 over-sharding 的问题
影响搜索结果的相关性打分,影响统计结果的准确性
单个节点上过多的分片,会导致资源浪费,同时也会影响性能

查看集群的健康状况

GET /_cluster/health
{
  "cluster_name" : "elasticsearch",
  "status" : "yellow",
  "timed_out" : false,
  "number_of_nodes" : 1,
  "number_of_data_nodes" : 1,
  "active_primary_shards" : 6,
  "active_shards" : 6,
  "relocating_shards" : 0,
  "initializing_shards" : 0,
  "unassigned_shards" : 1,
  "delayed_unassigned_shards" : 0,
  "number_of_pending_tasks" : 0,
  "number_of_in_flight_fetch" : 0,
  "task_max_waiting_in_queue_millis" : 0,
  "active_shards_percent_as_number" : 85.71428571428571
}
Green – 主分片与副本都正常分配
Yellow – 主分片全部正常分配,有副本分片未能正常分配
Red – 有主分片未能分配
例如,当服务器的磁盘容量超过85%时,去创建一个新索引

Demo

查看一个集群的健康状态 http://localhost:9200/_cluster/health
CAT API
http://localhost:9200/_cat/nodes
查看索引和分片
设置分片数
Kibana + Cerebro界面介绍

//download cerebro
https://github.com/lmenezes/cerebro/releases
yum install -y https://github.com/lmenezes/cerebro/releases/download/v0.8.4/cerebro-0.8.4-1.noarch.rpm
cerebro -Dhttp.port=9000 -Dhttp.address=192.168.148.101 &

浏览器打开界面


在开发者工具当中,使用 'GET /_cat/shards ' 可以按下 Ctrl + / 跳到官方网站查看当前API帮助手册

GET /_cat/shards
kibana_sample_data_logs      0 p STARTED    14074 11.4mb 127.0.0.1 centos7-zk1
kibana_sample_data_flights   0 p STARTED    13059  6.4mb 127.0.0.1 centos7-zk1
movies                       0 p STARTED     9743  1.2mb 127.0.0.1 centos7-zk1
movies                       0 r UNASSIGNED                        
kibana_sample_data_ecommerce 0 p STARTED     4675  4.6mb 127.0.0.1 centos7-zk1
.kibana_1                    0 p STARTED      152    1mb 127.0.0.1 centos7-zk1
.kibana_task_manager         0 p STARTED        2 55.5kb 127.0.0.1 centos7-zk1
GET /_cat/nodes
127.0.0.1 39 54 1 0.02 0.07 0.12 dim * centos7-zk1
posted on 2019-12-03 16:28  anyux  阅读(325)  评论(0编辑  收藏  举报