ZooKeeper - Master选举
在分布式系统中,经常会碰到这样的场景:对于一个复杂的任务,仅需要从集群中选举出一台进行处理即可。诸如此类的分布式问题,我们统称为 “Master 选举” ,借助 ZooKeeper,我们可以比较方便的实现 Master选举的功能,其大体思路非常简单:
选择一个根节点,例如 /master_select ,多台机器同时向该节点创建一个 子节点 /master_select/lock,利用 ZooKeeper 的特性,最终只有一台机器能够创建成功,成功的那台机器就作为 Master
一、使用场景
现在很多时候我们的服务需要7*24小时工作,假如一台机器挂了,我们希望能有其它机器顶替它继续工作。此类问题现在多采用master-salve模式,也就是常说的主从模式,正常情况下主机提供服务,备机负责监听主机状态,当主机异常时,可以自动切换到备机继续提供服务(这里有点儿类似于数据库主库跟备库,备机正常情况下只监听,不工作),这个切换过程中选出下一个主机的过程就是master选举。 对于以上提到的场景,传统的解决方式是采用一个备用节点,这个备用节点定期给当前主节点发送ping包,主节点收到ping包后会向备用节点发送应答ack,当备用节点收到应答,就认为主节点还活着,让它继续提供服务,否则就认为主节点挂掉了,自己将开始行使主节点职责,但这种方式会存在一个隐患,就是网络故障问题
我们的主节点并没有挂掉,只是在备用节点ping主节点,请求应答的时候发生网络故障,这样我们的备用节点同样收不到应答,就会认为主节点挂掉,然后备机会启动自己的master实例。这样就会导致系统中有两个主节点,也就是双master。出现双master以后,我们的从节点会将它做的事情一部分汇报给主节点,一部分汇报给备用节点,这样服务就乱套了。为了防止这种情况出现,我们可以考虑采用zookeeper,虽然它不能阻止网络故障的出现,但它能保证同一时刻系统中只存在一个主节点。
一点额外的话:zookeeper自己在集群环境下的抢主算法有三种,可以通过配置文件来设定,默认采用FastLeaderElection,不作赘述;此处主要讨论集群环境中,应用程序利用master的特点,自己选主的过程。程序自己选主,每个人都有自己的一套算法,有采用“最小编号”的,有采用类似“多数投票”的,各有优劣,本文的算法仅作演示理解使用:
结构图解释:左侧树状结构为zookeeper集群,右侧为程序服务器。所有的服务器在启动的时候,都会订阅zookeeper中master节点的删除事件,以便在主服务器挂掉的时候进行抢主操作;所有服务器同时会在servers节点下注册一个临时节点(保存自己的基本信息),以便于应用程序读取当前可用的服务器列表。
选主原理介绍:zookeeper的节点有两种类型,持久节点跟临时节点。临时节点有个特性,就是如果注册这个节点的机器失去连接(通常是宕机),那么这个节点会被zookeeper删除。选主过程就是利用这个特性,在服务器启动的时候,去zookeeper特定的一个目录下注册一个临时节点(这个节点作为master,谁注册了这个节点谁就是master),注册的时候,如果发现该节点已经存在,则说明已经有别的服务器注册了(也就是有别的服务器已经抢主成功),那么当前服务器只能放弃抢主,作为从机存在。同时,抢主失败的当前服务器需要订阅该临时节点的删除事件,以便该节点删除时(也就是注册该节点的服务器宕机了或者网络断了之类的)进行再次抢主操作。从机具体需要去哪里注册服务器列表的临时节点,节点保存什么信息,根据具体的业务不同自行约定。选主的过程,其实就是简单的争抢在zookeeper注册临时节点的操作,谁注册了约定的临时节点,谁就是master。
ps:本文的例子中,并未用到结构图server节点下的数据。但换一种算法或者业务场景就会用到,算法比如提到的最小编号,主要逻辑是主节点挂掉后,从节点里边编号最小的成为主节点,此时会用到该节点内容。换一种业务场景:集群环境中,有很多任务要处理, 主节点负责接收任务,并根据一定算法将任务分配到不同的机器上执行;这种情况下,主节点跟从节点的职责也是不同的,主节点挂掉也会涉及到从节点进行master选举的问题。这种情况下,很显然,作为主节点需要知道当前有多少个从节点还活着,那么此时也会需要用到servers节点下的数据了。
二、编码实现
主要有两个类,WorkServer为主服务类,RunningData用于记录运行数据。因为是简单的demo,我们只做抢master节点的编码,对于从节点应该去哪里注册服务列表信息,不作编码。
WorkServer类:
package xyx.tuny.master; import com.alibaba.fastjson.JSON; import org.I0Itec.zkclient.exception.ZkInterruptedException; import org.I0Itec.zkclient.exception.ZkNoNodeException; import org.apache.curator.framework.CuratorFramework; import org.apache.curator.framework.recipes.cache.NodeCache; import org.apache.curator.framework.recipes.cache.NodeCacheListener; import org.apache.zookeeper.CreateMode; import org.apache.zookeeper.data.Stat; import java.util.concurrent.Executors; import java.util.concurrent.ScheduledExecutorService; import java.util.concurrent.TimeUnit; public class WorkServer { //客户端状态 private volatile boolean running = false; private CuratorFramework client; //主节点路径 public static final String MASTER_PATH = "/master"; //监听(用于监听主节点删除事件) private NodeCacheListener dataListener; //服务器基本信息 private RunningData serverData; //主节点基本信息 private RunningData masterData; private NodeCache cache; //调度器 private ScheduledExecutorService delayExector = Executors.newScheduledThreadPool(1); //延迟时间5s private int delayTime = 5; public WorkServer(RunningData runningData) { this.serverData = runningData; } //启动 public void start() throws Exception { if (running) { throw new Exception("server has startup...."); } running = true; client.start(); this.cache = new NodeCache(client, MASTER_PATH, false); this.dataListener = new NodeCacheListener() { @Override public void nodeChanged() throws Exception { //System.out.println("--nodes changed and previous server is " + masterData.getName() + "--"); Stat stat = client.checkExists().forPath(MASTER_PATH); if(null == stat){ //takeMaster(); if (masterData != null && masterData.getName().equals(serverData.getName())) {//若之前master为本机,则立即抢主,否则延迟5秒抢主(防止小故障引起的抢主可能导致的网络数据风暴) System.out.println("--now server " + serverData.getName() + " has privilege to take master"); takeMaster(); } else { delayExector.schedule(new Runnable() { @Override public void run() { takeMaster(); } }, delayTime, TimeUnit.SECONDS); } } } }; this.cache.getListenable().addListener(dataListener); try { cache.start(); } catch (Exception e) { e.printStackTrace(); } takeMaster(); } //停止 public void stop() throws Exception { if (!running) { throw new Exception("server has stopped....."); } running = false; delayExector.shutdown(); cache.getListenable().removeListener(dataListener); releaseMaster(); } //抢注主节点 private void takeMaster() { if (!running) return; try { client.create().withMode(CreateMode.PERSISTENT).forPath(MASTER_PATH, JSON.toJSONString(serverData).getBytes()); masterData = serverData; System.out.println("--" + serverData.getName() + " now is Master--"); delayExector.schedule(new Runnable() {//测试抢主用,每5s释放一次主节点 @Override public void run() { if (checkMaster()) { releaseMaster(); } } }, 5, TimeUnit.SECONDS); } catch (Exception e){//节点已存在 String retJson = null; try { retJson = new String(client.getData().forPath(MASTER_PATH)); RunningData runningData = null; runningData = (RunningData)JSON.parseObject(retJson, RunningData.class); if(runningData == null){//读取主节点时,主节点被释放 takeMaster(); }else{ masterData = runningData; } } catch (Exception e1) { } } } //释放主节点 private void releaseMaster() { if (checkMaster()) { try { client.delete().forPath(MASTER_PATH); } catch (Exception e) { e.printStackTrace(); } } } //检验自己是否是主节点 private boolean checkMaster() { try { String retJson = new String(cache.getCurrentData().getData()); RunningData runningData = (RunningData) JSON.parseObject(retJson, RunningData.class); masterData = runningData; if (masterData.getName().equals(serverData.getName())) { return true; } return false; } catch (ZkNoNodeException e) {//节点不存在 return false; } catch (ZkInterruptedException e) {//网络中断 return checkMaster(); } catch (Exception e) {//其它 return false; } } public void setClient(CuratorFramework client) { this.client = client; } public CuratorFramework getClient() { return client; } }
RunningData类:
package xyx.tuny.master; import java.io.Serializable; public class RunningData implements Serializable { private static final long serialVersionUID = 4260577459043203630L; //服务器id private long cid; //服务器名称 private String name; public long getCid() { return cid; } public void setCid(long cid) { this.cid = cid; } public String getName() { return name; } public void setName(String name) { this.name = name; } }
说明:在实际生产环境中,可能会由于插拔网线等导致网络短时的不稳定,也就是网络抖动。由于正式生产环境中可能server在zk上注册的信息是比较多的,而且server的数量也是比较多的,那么每一次切换主机,每台server要同步的数据量(比如要获取谁是master,当前有哪些salve等信息,具体视业务不同而定)也是比较大的。那么我们希望,这种短时间的网络抖动最好不要影响我们的系统稳定,也就是最好选出来的master还是原来的机器,那么就可以避免发现master更换后,各个salve因为要同步数据等导致的zk数据网络风暴。所以在WorkServer中,54-63行,我们抢主的时候,如果之前主机是本机,则立即抢主,否则延迟5s抢主。这样就给原来主机预留出一定时间让其在新一轮选主中占据优势,从而利于环境稳定。
测试代码:
package xyx.tuny.master; import org.apache.curator.framework.CuratorFramework; import org.apache.curator.framework.CuratorFrameworkFactory; import org.apache.curator.retry.ExponentialBackoffRetry; import java.io.BufferedReader; import java.io.InputStreamReader; import java.util.ArrayList; import java.util.List; /** * master选举 */ public class LeaderSelectorTest { //启动的服务个数 private static final int CLIENT_QTY = 10; public static void main(String[] args) throws Exception{ List<CuratorFramework> clients = new ArrayList<CuratorFramework>(); List<WorkServer> workServers = new ArrayList<WorkServer>(); try{ for ( int i = 0; i < CLIENT_QTY; ++i ){ //创建client CuratorFramework client = CuratorFrameworkFactory.builder() .connectString("127.0.0.1:2181") .retryPolicy(new ExponentialBackoffRetry(1000, 3)) .sessionTimeoutMs(5000) .build(); clients.add(client); //创建serverData RunningData runningData = new RunningData(); runningData.setCid(Long.valueOf(i)); runningData.setName("Client #" + i); //创建服务 WorkServer workServer = new WorkServer(runningData); workServer.setClient(client); workServers.add(workServer); workServer.start(); } System.out.println("敲回车键退出!\n"); new BufferedReader(new InputStreamReader(System.in)).readLine(); }finally{ System.out.println("Shutting down..."); for ( WorkServer workServer : workServers ){ try { workServer.stop(); } catch (Exception e) { e.printStackTrace(); } } for ( CuratorFramework client : clients ){ try { client.close(); } catch (Exception e) { e.printStackTrace(); } } } } }
测试:启用防抖动:
未启动防抖动:
可以看到,未启用的时候,断线后重新选出的主机是随机的,没规律;启用防抖动后,每次选出的master都是id为0的机器。
三、curator recipes
Curator 也是基于这个思路,但是它将节点创建、事件监听和自动选举过程进行了封装,开发人员只需要调用简单的API即可实现Master选举。
package xyx.tuny.curator; import org.apache.curator.framework.CuratorFramework; import org.apache.curator.framework.CuratorFrameworkFactory; import org.apache.curator.framework.recipes.leader.LeaderSelector; import org.apache.curator.framework.recipes.leader.LeaderSelectorListenerAdapter; import org.apache.curator.retry.ExponentialBackoffRetry; public class Recipes_MasterSelect { static String master_path = "/curator_recipes_master_path"; static CuratorFramework client = CuratorFrameworkFactory.builder() .connectString("127.0.0.1:2181") .retryPolicy(new ExponentialBackoffRetry(1000, 3)).build(); public static void main( String[] args ) throws Exception { client.start(); LeaderSelector selector = new LeaderSelector(client, master_path, new LeaderSelectorListenerAdapter() { public void takeLeadership(CuratorFramework client) throws Exception { System.out.println("成为Master角色"); Thread.sleep( 3000 ); System.out.println( "完成Master操作,释放Master权利" ); } }); selector.autoRequeue(); selector.start(); Thread.sleep( Integer.MAX_VALUE ); } }
Curator会在竞争到Master后自动调用该方法。开发者可以在这个方法中实现自己的业务员逻辑。需要注意的一点是,一旦执行完 takeleadership方法,Curator就会立即释放Master权力,然后重新开始新一轮的Master选举。
本例通过sleep来模拟了业务逻辑的部分,同时运行两个应用程序后,可以发现,当一个应用程序完成Master逻辑后,另一个应用程序的takeLeaderShip方法才会被调用,这就说明,当一个应用实例成为Master之后,其他应用程序实例会进入等待,直到当前Master挂了或者推出后才会开始选举新的Master。
参考:https://www.cnblogs.com/nevermorewang/p/5611807.html
https://github.com/trustnature/zookeeper_study/tree/master/src/main/java/xyx/tuny/master
posted on 2018-08-22 23:09 TrustNature 阅读(26) 评论(0) 编辑 收藏 举报