Redis Sentinel(哨兵模式)
尽管我们已经知道了主从复制能尽可能的确保数据不会因master node的节点挂掉而丢失,然而现实生活中,我们总不可能一直在看着master node的状态,在一旁等着它挂掉然后把它“提起来”。这时候,需要有个东西来替我们监督并且随时调整redis集群状况,这个东西就叫做哨兵(sential)。
哨兵是redis集群架构中非常重要的一个组件,主要功能如下:
(1)集群监控,负责监控redis master和slave进程是否正常。
(2)消息通知,如果某个redis实例有故障,那么哨兵负责发送消息作为报警通知给管理员。
(3)故障转移,如果发现master node挂了,会自动启动一个slave node,让它转换为master node
(4)配置中心,如果故障转移发生了,通知client客户端有新 的master地址。
1.哨兵集群
当然啦,哨兵本身也是分布式的,组成一个哨兵集群去运行,互相协同工作。作为集群,主要有2个方面,一个是当故障转移时,判断一个master node时宕机了,需要大部分的哨兵都同意才行,这涉及到了slave选举(后面会讲到);另一个是,要保证即使部分哨兵节点挂掉了,哨兵集群还是能正常工作的,想想看也知道,如果作为一个高可用机制重要组成部分的故障转移系统本身就是单节点的,一点都不高可用,那就很坑爹了。
注:目前采用的是sentinal 2版本,相对于1版本,重写了很多代码。主要是让故障转移的机制和算法变得更加健壮和简单。
哨兵集群的注意事项:
(1)哨兵至少需要3个实例来保证自己的健壮性。
(2)哨兵+redis主从的部署架构,是不能保证数据零丢失的,只能保证redis集群的高可用性。
(3)对于哨兵+redis主从这种复杂的部署架构,尽量在测试环境和生产环境,都进行充足的测试和演练。
这里先简单的解释下为什么redis哨兵集群必须要部署2个以上的节点(2个不行)。假设我们部署2个节点,一个主,一个从,每个节点上有哨兵,如图(M代表主,R代表从,S1、S2代表哨兵)
--------------|---------------
| M1 | | | R1 |
| S1 | | | S2 |
---------------|----------------
部署哨兵集群的时候,有个参数叫quorum,quorum = 1,意思就是如果master宕机,s1和s2中只要有1个哨兵认为master宕机就可以进行主从切换,同时s1和s2中会选出一个来执行故障转移。
同时这个时候,需要majority,也就是大多数哨兵都是运行的,2个哨兵的majority就是2(3个是2,4个是2,5个是3....),这里有2个哨兵都运行,那就可以故障转移了。
但是如果其中一个机器宕机了,就没有majority来允许执行故障转移了。
其实就是运行的哨兵集群无法满足majority这个先天条件,就无法进行故障转移。这里啰嗦了这么多,就是想让大家有个quorum这个概念,因为下面我们会屡次讲到。
2.Redis哨兵主备切换的数据丢失问题
哨兵集群在发现master node挂掉后会进行故障转移,也就是启动其中一个slave node为master node。在这过程中,可能会导致数据丢失的情况,主要有两种。
(1)异步复制导致的数据丢失
我们已经知道了,master->slave的复制是异步,所以可能有部分还没来得及复制到slave就宕机了,此时这些部分数据就丢失了。
(2)脑裂导致的数据丢失
脑裂,也就是说,某个master所在机器突然脱离了正常的网络,跟其它slave机器不能连接,但是实际上master还运行着。
此时哨兵可能就会认为master宕机了,然后开始选举,讲其它slave切换成master。这时候集群里就会有2个master,也就是所谓的脑裂。
此时虽然某个slave被切换成了master,但是可能client还没来得及切换成新的master,还继续写向旧的master的数据可能就丢失了。
因此旧master再次恢复的时候,会被作为一个slave挂到新的master上去,自己的数据会被清空,重新从新的master复制数据
(3)如何解决异步复制和脑裂导致的数据丢失问题
min-slaves-to-write 1 min-slaves-max-lag 10
这两个参数的意思就是,要求至少有1个slave,数据复制和同步的延迟不能超过10s,如果说一旦所有的slave,数据复制和同步的延迟都超过10s,那么这个时候,master就不会再接受任何请求了。
有了min-slaves-max-lag这个配置,就可以确保的说,一旦slave复制数据和ack延迟时间太长,就认为可能master宕机后损失的数据太多了,那么就拒绝写请求,这样就可以把master宕机时由于部分数据未同步到slave导致的数据丢失降低到可控范围内。
如果一个master出现了脑裂,跟其他slave丢了连接,那么上面两个配置可以确保的说,如果不能继续给指定数量的slave发送数据,而且slave超过10秒没有给自己ack消息,那么就直接拒绝客户端的写请求。这样脑裂后的旧master就不会接受client的新数据,也就避免了数据丢失。
上面的配置就确保了,如果跟任何一个slave丢了连接,在10秒后发现没有slave给自己ack,那么就拒绝新的写请求,因此在脑裂场景下,最多就丢失10秒的数据。
3.哨兵的核心底层原理
(1)sdown和odown转换机制
- sdown是主观宕机,就一个哨兵觉得一个master宕机了,那么就是主观宕机。
- odown是客观宕机,如果quorum数量的哨兵都觉得一个master宕机了,那么就是客观宕机。
- sdown达成的条件非常简单,如果一个哨兵ping一个master,超过了is-master-down-after-milliseconds指定的毫秒数之后,就主观认为master宕机。odown同理。
(2)哨兵集群的自动发现机制
哨兵互相之间的发现,是通过redis的pub/sub系统实现的,每个哨兵都会往__sentinel__:hello这个channel里发送一个消息,这时候所有其他哨兵都可以消费到这个消息,并感知到其他的哨兵的存在。
具体就是,每隔2s,每个哨兵都会往自己监控的某个master+slaves对应的__sentinel__:hello channel里发送一个消息,内容是自己的host、ip和runid还有对这个master的监控配置。然后呢,每个哨兵也会去监听自己监控的每个master+slaves对应的__sentinel__:hello channel,然后去感知到同样在监听这个master+slaves的其他哨兵的存在。
每个哨兵还会跟其他哨兵交换对master的监控配置,互相进行监控配置的同步。
(3)slave配置的自动纠正
哨兵会负责自动纠正slave的一些配置,比如slave如果要成为潜在的master候选人,哨兵会确保slave在复制现有master的数据,如果slave连接到了一个错误的master上,比如故障转移之后,哨兵会确保它们连接到正确的master上。
(4)slave->master选举算法
如果一个master被认为odown了,而且majority哨兵都允许了主备切换,那么某个哨兵就会执行主备切换操作,此时要选举一个slave来。
首先,会考虑slave的一些信息
- 跟master断开连接的时长
- slave优先级
- 复制offset
- run id
如果一个slave跟master断开连接已经超过了down-after-milliseconds的10倍,外加master宕机的时长,那么slave就被认为不适合选举为master。
公式:
(down-after-milliseconds * 10) + milliseconds_since_master_is_in_SDOWN_state
接下来会对slave进行排序
- 按照slave优先级进行排序,slave priority越低,优先级就越高;
- 如果slave priority相同,那么看replica offset,哪个slave复制了越多的数据,offset越靠后,优先级就越高;
- 如果上面两个条件都相同,那么选择一个run id比较小的那个slave。
(5)configuration epoch
哨兵会对一套redis master+slave进行监控,有相应的监控的配置。
执行切换的那个哨兵,会从要切换到的新master(salve->master)那里得到一个configuration epoch,这就是一个version号,每次切换的version号都必须是唯一的。
如果第一个选举出的哨兵切换失败了,那么其他哨兵,会等待failover-timeout时间,然后接替继续执行切换,此时会重新获取一个新的configuration epoch,作为新的version号
(6)configuraiton传播
哨兵完成切换之后,会在自己本地更新生成最新的master配置,然后同步给其他的哨兵,就是通过之前说的pub/sub消息机制
这里之前的version号就很重要了,因为各种消息都是通过一个channel去发布和监听的,所以一个哨兵完成一次新的切换之后,新的master配置是跟着新的version号的
其他的哨兵都是根据版本号的大小来更新自己的master配置的。