Zookeeper Leader选举
更多内容,前往 IT-BLOG
Leader选举是保证分布式数据一致性的关键所在。当 Zookeeper集群中的一台服务器出现以下两种情况之一时,需要进入 Leader选举:
【1】服务器初始化启动;
【2】服务器运行期间无法和 Leader保持连接;
服务器启动时期的 Leader选举
若进行 Leader选举,则至少需要二台机器,这里选取三台机器组成的服务器集群为例。在集群初始化阶段,当有一台服务器 Server1启动时,其单独无法进行和完成 Leader选举,当第二台服务器 Server2启动时,此时两台机器可以相互通信,每台机器都试图找到 Leader,于是进入 Leader选举过程。选举过程如下:
【1】每个 Server发出一个投票。由于是初始情况,Server1 和 Server2都会将自己作为 Leader服务器来进行投票,每次投票会包含所推举的服务器的 myid 和 ZXID,使用(myid, ZXID)来表示,此时 Server1的投票为(1, 0),Server2的投票为(2, 0),然后各自将这个投票发给集群中其他机器。
【2】接受来自各个服务器的投票。集群的每个服务器收到投票后,首先判断该投票的有效性,如检查是否是本轮投票、是否来自 LOOKING状态的服务器。
LOOKING:寻找Leader状态。当服务器处于该状态时,它会认为当前集群中没有Leader,因此需要进入 Leader选举状态;
FOLLOWING:跟随者状态。表明当前服务器角色是 Follower;
LEADING:领导者状态。表明当前服务器角色是 Leader;
OBSERVING:观察者状态。表明当前服务器角色是 Observer;
【3】处理投票。针对每一个投票,服务器都需要将别人的投票和自己的投票进行PK,PK规则如下:
● 优先检查 ZXID。ZXID 较大的服务器优先作为 Leader;
● 如果 ZXID相同,那么就比较 myid。myid 较大的服务器优先作为 Leader服务器;
对于Server1而言,它的投票是(1, 0),接收Server2的投票为(2, 0),首先会比较两者的ZXID,均为0,再比较 myid,此时 Server2的 myid最大,于是更新自己的投票为(2, 0),然后重新投票,对于 Server2而言,其无须更新自己的投票,只是再次向集群中所有机器发出上一次投票信息即可。
【4】统计投票。每次投票后,服务器都会统计投票信息,判断是否已经有过半机器接受到相同的投票信息,对于Server1、Server2而言,都统计出集群中已经有两台机器接受了(2, 0)的投票信息,此时便认为已经选出了 Leader;
【5】改变服务器状态。一旦确定了Leader,每个服务器就会更新自己的状态,如果是 Follower,那么就变更为 FOLLOWING,如果是 Leader,就变更为LEADING。
服务器运行时期的 Leader选举
在 Zookeeper运行期间,Leader与非 Leader服务器各司其职,即便当有非 Leader服务器宕机或新加入,此时也不会影响 Leader,但是一旦 Leader服务器挂了,那么整个集群将暂停对外服务,进入新一轮 Leader选举,其过程和启动时期的 Leader选举过程基本一致。假设正在运行的有Server1、Server2、Server3三台服务器,当前 Leader是 Server2,若某一时刻 Leader挂了,此时便开始 Leader选举。选举过程如下:
【1】变更状态。Leader挂后,余下的非 Observer服务器[不参与任何形式的投票]都会将自己的服务器状态变更为 LOOKING,然后开始进入 Leader选举过程;
【2】每个 Server会发出一个投票。在运行期间,每个服务器上的 ZXID可能不同,此时假定 Server1的 ZXID为123,Server3 的 ZXID为122。在第一轮投票中,Server1 和 Server3都会投自己,产生投票(1, 123),(3, 122),然后各自将投票发送给集群中所有机器;
【3】接收来自各个服务器的投票。与启动时过程相同;
【4】处理投票。与启动时过程相同,此时,Server1将会成为Leader;
【5】统计投票。与启动时过程相同;
【6】改变服务器状态。与启动时过程相同;
Leader 选举算法分析
在3.4.0后的 Zookeeper的版本只保留了 TCP版本的 FastLeaderElection选举算法。当一台机器进入 Leader选举时,当前集群可能会处于以下两种状态:
【1】集群中已经存在 Leader;
【2】集群中不存在Leader;
对于集群中已经存在 Leader而言,此种情况一般都是某台机器启动得较晚,在其启动之前,集群已经在正常工作,对这种情况,该机器试图去选举 Leader时,会被告知当前服务器的 Leader信息,对于该机器而言,仅仅需要和 Leader机器建立起连接,并进行状态同步即可。而在集群中不存在 Leader情况下则会相对复杂,其步骤如下:
【1】第一次投票。无论哪种导致进行 Leader选举,集群的所有机器都处于试图选举出一个 Leader的状态,即 LOOKING状态,LOOKING机器会向所有其他机器发送消息,该消息称为投票。投票中包含了SID(服务器的唯一标识)和 ZXID(事务ID),(SID, ZXID)形式来标识一次投票信息。假定 Zookeeper由5台机器组成,SID分别为1、2、3、4、5,ZXID分别为9、9、9、8、8,并且此时 SID=2 的机器是 Leader机器,某一时刻,1、2所在机器出现故障,因此集群开始进行 Leader选举。在第一次投票时,每台机器都会将自己作为投票对象,于是 SID为3、4、5的机器投票情况分别为(3, 9),(4, 8), (5, 8)。
【2】变更投票。每台机器发出投票后,也会收到其他机器的投票,每台机器会根据一定规则来处理收到的其他机器的投票,并以此来决定是否需要变更自己的投票,这个规则也是整个 Leader选举算法的核心所在,其中术语描述如下:
● vote_sid:接收到的投票中所推举 Leader服务器的SID;
● vote_zxid:接收到的投票中所推举 Leader服务器的ZXID;
● self_sid:当前服务器自己的SID;
● self_zxid:当前服务器自己的ZXID;
每次对收到的投票的处理,都是对(vote_sid, vote_zxid)和(self_sid, self_zxid)对比的过程。
规则一:如果 vote_zxid大于 self_zxid,就认可当前收到的投票,并再次将该投票发送出去;
规则二:如果 vote_zxid小于 self_zxid,那么坚持自己的投票,不做任何变更;
规则三:如果 vote_zxid等于 self_zxid,那么就对比两者的 SID,如果 vote_sid大于 self_sid,那么就认可当前收到的投票,并再次将该投票发送出去;
规则四:如果 vote_zxid等于 self_zxid,并且 vote_sid小于 self_sid,那么坚持自己的投票,不做任何变更;
【3】确定Leader。经过第二轮投票后,集群中的每台机器都会再次接收到其他机器的投票,然后开始统计投票,如果一台机器收到了超过半数的相同投票,那么这个投票对应的 SID机器即为 Leader。此时 Server3将成为 Leader。
由上面规则可知,通常那台服务器上的数据越新(ZXID会越大),其成为 Leader的可能性越大,也就越能够保证数据的恢复。如果 ZXID相同,则 SID越大机会越大。
Leader 选举实现细节
投票数据结构:每个投票中包含了两个最基本的信息,所推举服务器的 SID和 ZXID,投票(Vote)在 Zookeeper中包含字段如下:
【1】id:被推举的 Leader的 SID;
【2】zxid:被推举的 Leader事务ID;
【3】electionEpoch:逻辑时钟,用来判断多个投票是否在同一轮选举周期中,该值在服务端是一个自增序列,每次进入新一轮的投票后,都会对该值进行加1操作;
【4】peerEpoch:被推举的 Leader的 epoch;
【5】state:当前服务器的状态;
QuorumCnxManager:网络I/O,每台服务器在启动的过程中,会启动一个 QuorumPeerManager,负责各台服务器之间的底层 Leader选举过程中的网络通信。
【1】消息队列:QuorumCnxManager内部维护了一系列的队列,用来保存接收到的、待发送的消息以及消息的发送器,除接收队列以外,其他队列都按照 SID分组形成队列集合,如一个集群中除了自身还有3台机器,那么就会为这3台机器分别创建一个发送队列,互不干扰。
● recvQueue:消息接收队列,用于存放那些从其他服务器接收到的消息;
● queueSendMap:消息发送队列,用于保存那些待发送的消息,按照 SID进行分组;
● senderWorkerMap:发送器集合,每个 SenderWorker消息发送器,都对应一台远程 Zookeeper服务器,负责消息的发送,也按照 SID进行分组;
● lastMessageSent:最近发送过的消息,为每个 SID保留最近发送过的一个消息。
【2】建立连接:为了能够相互投票,Zookeeper集群中的所有机器都需要两两建立起网络连接。QuorumCnxManager在启动时会创建一个 ServerSocket来监听 Leader选举的通信端口(默认为3888)。开启监听后,Zookeeper能够不断地接收到来自其他服务器的创建连接请求,在接收到其他服务器的 TCP连接请求时,会进行处理。为了避免两台机器之间重复地创建 TCP连接,Zookeeper只允许 SID大的服务器主动和其他机器建立连接,否则断开连接。在接收到创建连接请求后,服务器通过对比自己和远程服务器的 SID值来判断是否接收连接请求,如果当前服务器发现自己的 SID更大,那么会断开当前连接,然后自己主动和远程服务器建立连接。一旦连接建立,就会根据远程服务器的 SID来创建相应的消息发送器 SendWorker和消息接收器 RecvWorker,并启动。
【3】消息接收与发送:消息接收由消息接收器 RecvWorker负责,由于 Zookeeper为每个远程服务器都分配一个单独的 RecvWorker,因此,每个 RecvWorker只需要不断地从这个 TCP连接中读取消息,并将其保存到recvQueue队列中。消息发送,由于 Zookeeper为每个远程服务器都分配一个单独的 SendWorker,因此,每个 SendWorker只需要不断地从对应的消息发送队列中获取出一个消息发送即可,同时将这个消息放入lastMessageSent中。在 SendWorker中,一旦 Zookeeper发现针对当前服务器的消息发送队列为空,那么此时需要从 lastMessageSent中取出一个最近发送过的消息来进行再次发送,这是为了解决接收方在消息接收前或者接收到消息后服务器挂了,导致消息尚未被正确处理。同时,Zookeeper能够保证接收方在处理消息时,会对重复消息进行正确的处理。
FastLeaderElection:选举算法核心
外部投票:特指其他服务器发来的投票;
内部投票:服务器自身当前的投票;
选举轮次:Zookeeper服务器 Leader选举的轮次,即 logicalclock;
PK:对内部投票和外部投票进行对比来确定是否需要变更内部投票;
【1】选票管理:
● sendqueue:选票发送队列,用于保存待发送的选票;
● recvqueue:选票接收队列,用于保存接收到的外部投票;
● WorkerReceiver:选票接收器。会不断地从 QuorumCnxManager中获取其它服务器发来的选举消息,并将其转换成一个选票,然后保存到 recvqueue中,在选票接收过程中,如果发现该外部选票的选举轮次小于当前服务器的,那么忽略该外部投票,同时立即发送自己的内部投票;
● WorkerSender:选票发送器,不断地从 sendqueue中获取待发送的选票,并将其传递到底层 QuorumCnxManager中;
【2】算法核心:
以上10个步骤就是 FastLeaderElection的核心,其中步骤4-9会经过几轮循环,直到有 Leader选举产生。