分布式服务协调技术zookeeper笔记

 

本文主要学习ZooKeeper的体系结构、节点类型、节点监听、常用命令等基础知识,最后还学习了ZooKeeper的高可用集群的搭建与测试。希望能给想快速掌握ZooKeeper的同学有所帮助。

ZooKeeper简介与安装

ZooKeeper是一个分布式协调服务框架,通常用于解决分布式项目中遇到的一些管理协调的问题,如统一命名服务、分布式配置管理,分布式锁、集群节点状态协调等等。

下载

http://apache.fayea.com/zookeeper/下载zookeeper-3.4.9,ftp上传至linux

解压

[root@localhost ftpuser]# tar -zxvf zookeeper-3.4.9.tar.gz

创建数据日志目录

zookeeper的解压目录下创建以下两个文件夹

 

[root@localhost zookeeper-3.4.9]# mkdir data

[root@localhost zookeeper-3.4.9]# mkdir logs

 

拷贝配置文件

zookeeper的解压目录的conf目录下,将zoo_sample.cfg 文件拷贝一份,命名为为 zoo.cfg

 

[root@localhost conf]# cp zoo_sample.cfg zoo.cfg

修改配置文件

[root@localhost conf]# vi zoo.cfg

 

# The number of milliseconds of each tick

tickTime=2000

# The number of ticks that the initial

# synchronization phase can take

initLimit=10

# The number of ticks that can pass between

# sending a request and getting an acknowledgement

syncLimit=5

# the directory where the snapshot is stored.

# do not use /tmp for storage, /tmp here is just

# synchronization phase can take

initLimit=10

# The number of ticks that can pass between

# sending a request and getting an acknowledgement

syncLimit=5

# the directory where the snapshot is stored.

# do not use /tmp for storage, /tmp here is just

# example sakes.

dataDir=/home/ftpuser/zookeeper-3.4.9/data

dataLogDir=/home/ftpuser/zookeeper-3.4.9/logs

# the port at which the clients will connect

clientPort=2181

server.1=192.168.2.129:2888:3888

# the maximum number of client connections.

# increase this if you need to handle more clients

#maxClientCnxns=60

#

# Be sure to read the maintenance section of the

# administrator guide before turning on autopurge.

#

# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance

#

# The number of snapshots to retain in dataDir

#autopurge.snapRetainCount=3

# Purge task interval in hours

# Set to "0" to disable auto purge feature

#autopurge.purgeInterval=1

 

zoo.cfg 配置dataDir,dataLogDirserver

server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务

器的 IP 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。

 

clientPort 这个端口就是客户端(应用程序)连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口接受客户端的访问请求

创建 myid 文件

进入/home/ftpuser/zookeeper-3.4.9/data并创建myid文件

 

[root@localhost conf]# cd /home/ftpuser/zookeeper-3.4.9/data

[root@localhost data]# vi myid

1

 

编辑 myid 文件,并在对应的 IP 的机器上输入对应的编号。如在 zookeeper 上,myid

文件内容就是 1。如果只在单点上进行安装配置,那么只有一个 server.1

添加环境变量

[root@localhost data]# vi /etc/profile

 

在文件末尾添加zookeeper 环境变量

 

# zookeeper env

export ZOOKEEPER_HOME=/home/ftpuser/zookeeper-3.4.9/

export PATH=$ZOOKEEPER_HOME/bin:$PATH

 

执行source /etc/profile命令是环境变量生效,执行echo $ZOOKEEPER_HOME查看

打开端口

在防火墙中打开要用到的端口 2181、28883888。打开/etc/sysconfig/iptables增加以下 3

 

[root@localhost data]# cat /etc/sysconfig/iptables

# Generated by iptables-save v1.4.7 on Thu Jun  2 22:41:13 2016

*filter

:INPUT ACCEPT [5:320]

:FORWARD ACCEPT [0:0]

:OUTPUT ACCEPT [4:464]

-A INPUT -p udp -m udp --dport 23 -j ACCEPT

-A INPUT -p tcp -m tcp --dport 23 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2181 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2888 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 3888 -j ACCEPT

COMMIT

# Completed on Thu Jun  2 22:41:13 2016

 

[root@localhost data]#

 

查看端口启动状态

 

[root@localhost data]# service iptables status

 

启动zookeeper

[root@localhost zookeeper-3.4.9]# cd bin

[root@localhost bin]# ll

total 36

-rwxr-xr-x. 1 1001 1001  232 Aug 23 15:39 README.txt

-rwxr-xr-x. 1 1001 1001 1937 Aug 23 15:39 zkCleanup.sh

-rwxr-xr-x. 1 1001 1001 1032 Aug 23 15:39 zkCli.cmd

-rwxr-xr-x. 1 1001 1001 1534 Aug 23 15:39 zkCli.sh

-rwxr-xr-x. 1 1001 1001 1579 Aug 23 15:39 zkEnv.cmd

-rwxr-xr-x. 1 1001 1001 2696 Aug 23 15:39 zkEnv.sh

-rwxr-xr-x. 1 1001 1001 1065 Aug 23 15:39 zkServer.cmd

-rwxr-xr-x. 1 1001 1001 6773 Aug 23 15:39 zkServer.sh

[root@localhost bin]# zkServer.sh start

ZooKeeper JMX enabled by default

Using config: /home/ftpuser/zookeeper-3.4.9/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

查看zookeeper后台日志

[root@localhost ~]# tail -f /home/ftpuser/zookeeper-3.4.9/bin/zookeeper.out

查看zookeeper进程

[root@localhost bin]# jps

2011 QuorumPeerMain

1245 Bootstrap

2030 Jps

[root@localhost bin]#

 

其中,QuorumPeerMain 是 zookeeper 进程,启动正常。查看状态

 

[root@localhost bin]# zkServer.sh status

ZooKeeper JMX enabled by default

Using config: /home/ftpuser/zookeeper-3.4.9/bin/../conf/zoo.cfg

Mode: standalone

[root@localhost bin]#

停止zookeeper进程

[root@localhost bin]# zkServer.sh stop

ZooKeeper JMX enabled by default

Using config: /home/ftpuser/zookeeper-3.4.9/bin/../conf/zoo.cfg

Stopping zookeeper ... STOPPED

[root@localhost bin]#

客户端连接zookeeper

[root@localhost bin]# ./zkCli.sh -server 192.168.2.129:2181

 

输入help命令来查看有哪些命令

 

[zk: 192.168.2.129:2181(CONNECTED) 0] help

ZooKeeper -server host:port cmd args

connect host:port

get path [watch]

ls path [watch]

set path data [version]

rmr path

delquota [-n|-b] path

quit

printwatches on|off

create [-s] [-e] path data acl

stat path [watch]

close

ls2 path [watch]

history

listquota path

setAcl path acl

getAcl path

sync path

redo cmdno

addauth scheme auth

delete path [version]

setquota -n|-b val path

[zk: 192.168.2.129:2181(CONNECTED) 1] 

ZooKeeper体系结构

ZooKeeper的体系结构由一个命名空间组成,类似于一个标准的文件系统。命名空间由称为znodes节点的数据寄存器组成,用ZooKeeper说法,这是类似于文件和目录。不同于典型的文件系统的是,这是专为存储数据而设计的,也就是说,ZooKeeper的节点数据是存储在内存中中,可以实现高吞吐量和低延迟的数据。

 

ZooKeeper允许分布式进程(注意,这里强调的是进程,分布式环境中往往是不同主机之间的协调访问)通过共享ZooKeeper命名空间组织的znodes节点数据来实现相互协调

 

wpsFE13.tmp

 

ZooKeeper命名空间结构示意图

ZooKeeper节点类型

 

从上面的ZooKeeper命名空间结构示意图中可以看出,ZooKeeper命名空间的根路径是“/”,每一个znode都有自己的path,每一个znode都存储着一份协调数据,这些数据包括状态信息、配置、位置信息等等。由于znode维护的数据主要是用于分布式进程之间协调的,因此这些数据通常非常小。

命名空间中的每个znode中的数据都是可读可写的,但每个节点都有一个访问控制列表(ACL),限制谁可以做什么。

命名空间中的每个znode都有自己的类型,znode的类型主要有下面几种:

(1)PERSISTEN,永久的(只要客户端不删除,则永远存在)

(2)PERSISTENT_SEQUENTIAL,永久且有序号的

(3)EMPEMERAL ,短暂的(只要客户端断开连接,则会被自动删除)

(4)EMPEMERAL_SEQUENTIAL短暂且有序号的

ZooKeeper节点监听

客户端可以对znode进行监听,当znode节点发生变化时,监听事件将会被触发,客户端接收到一个数据包说znode节点已发生改变。

ZooKeeper常用命令

ZooKeeper的常用命令非常简单,也就几条,下面我们来学习ZooKeeper的常用命令,加深对ZooKeeper体系结构的理解。

 

1)ls——查看节点(路径)

 

[zk: 192.168.2.129:2181(CONNECTED) 1] ls /

[dubbo, zookeeper]

[zk: 192.168.2.129:2181(CONNECTED) 2] ls /zookeeper

[quota]

[zk: 192.168.2.129:2181(CONNECTED) 3] ls /dubbo

[com.alibaba.dubbo.monitor.MonitorService, com.mcweb.api.service.IUserService]

[zk: 192.168.2.129:2181(CONNECTED) 4]

 

2)create——在命名空间中的某个路径下创建节点

 

[zk: 192.168.2.129:2181(CONNECTED) 7] create /nodes1 "test node"

Created /nodes1

[zk: 192.168.2.129:2181(CONNECTED) 8] ls /

[dubbo, nodes1, zookeeper]

 

3)get——获取命名空间中某个节点的数据

 

[zk: 192.168.2.129:2181(CONNECTED) 9] get /nodes1

test node

cZxid = 0x227

ctime = Tue Sep 27 04:01:49 CST 2016

mZxid = 0x227

mtime = Tue Sep 27 04:01:49 CST 2016

pZxid = 0x227

cversion = 0

dataVersion = 0

aclVersion = 0

ephemeralOwner = 0x0

dataLength = 9

numChildren = 0

[zk: 192.168.2.129:2181(CONNECTED) 10]

 

(4)set——设置命名空间中某个节点的数据

 

[zk: 192.168.2.129:2181(CONNECTED) 10] set /nodes1 "nodes1 data have been setted"

cZxid = 0x227

ctime = Tue Sep 27 04:01:49 CST 2016

mZxid = 0x228

mtime = Tue Sep 27 04:07:04 CST 2016

pZxid = 0x227

cversion = 0

dataVersion = 1

aclVersion = 0

ephemeralOwner = 0x0

dataLength = 28

numChildren = 0

[zk: 192.168.2.129:2181(CONNECTED) 11] get /nodes1

nodes1 data have been setted

cZxid = 0x227

ctime = Tue Sep 27 04:01:49 CST 2016

mZxid = 0x228

mtime = Tue Sep 27 04:07:04 CST 2016

pZxid = 0x227

cversion = 0

dataVersion = 1

aclVersion = 0

ephemeralOwner = 0x0

dataLength = 28

numChildren = 0

[zk: 192.168.2.129:2181(CONNECTED) 12]

 

(5)delete——删除命名空间中某个节点

 

[zk: 192.168.2.129:2181(CONNECTED) 13] delete /nodes1

[zk: 192.168.2.129:2181(CONNECTED) 14] get /nodes1

Node does not exist: /nodes1

[zk: 192.168.2.129:2181(CONNECTED) 15]

 

删除节点信息还可以用rmr命令。好了,常用命令介绍完了,其他命令可以通过help命令来查看。下面我们来学习ZooKeeper Java客户端的使用。

ZooKeeper客户端开发

依赖jar

wpsFE14.tmp 

测试代码

public class ZKTest {

	private ZooKeeper zk = null;

	@Before
	public void init() throws Exception {
		zk = new ZooKeeper("192.168.2.129:2181", 2000, new Watcher() {
			/**
			 * 监听事件发生时的回调方法
			 */
			@Override
			public void process(WatchedEvent event) {
				if (event.getType() == EventType.None) {
					System.out.println("Event:null");
					return;
				}
				System.out.println("EventType:" + event.getType());
				System.out.println("Path" + event.getPath());

				try {
					zk.getData("/nodes1", true, null);
					zk.getChildren("/nodes1", true);

				} catch (KeeperException | InterruptedException e) {

					e.printStackTrace();
				}
			}
		});
	}

	/**
	 * 向zookeeper服务(集群)中注册数据,添加znode
	 * @throws Exception
	 */

	@Test
	public void testCreateZnode() throws Exception {
		zk.create("/nodes1", "nodes1".getBytes("utf-8"), 
				Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);

		// 在一个父节点的范围之内,sequential的顺序是递增的
		zk.create("/nodes1/testNode1", "/nodes1/testNode1".getBytes("utf-8"), 
				Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL);
		zk.create("/nodes1/testNode2", "/nodes1/testNode2".getBytes("utf-8"), 
				Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL);

		// 换一个父节点,序号的递增顺序重新开始
		zk.create("/nodes2", "nodes2".getBytes("utf-8"), 
				Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
		zk.create("/nodes2/testNode1", "/nodes2/testNode1".getBytes("utf-8"),
				Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL);
		
		zk.create("/nodes3", "/nodes3".getBytes("utf-8"), 
				Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);

		zk.close();
	}

	/**
	 * 从zookeeper中删除znode
	 * @throws Exception
	 */
	@Test
	public void testDeleteZnode() throws Exception {

		// 参数1:要删除的节点的路径 参数2:要删除的节点的版本,-1匹配所有版本
		// 只能删除不为空的节点
		zk.delete("/nodes3", -1);
		Stat exists = zk.exists("/nodes3", false);
		System.out.println(exists);

	}

	@Test
	public void testUpdateZnode() throws Exception {
		byte[] data = zk.getData("/nodes1", false, null);
		System.out.println(new String(data, "utf-8"));
		
		zk.setData("/nodes1", "/nodes1 data changed".getBytes("utf-8"), -1);
		
		data = zk.getData("/nodes1", false, null);
		System.out.println(new String(data, "utf-8"));

	}

	/**
	 * 获取子节点信息
	 * @throws Exception
	 */
	@Test
	public void testGetChildren() throws Exception {
		List<String> children = zk.getChildren("/nodes1", false);
		for (String child : children) {
			System.out.println(child);
		}
	}

	/**
	 * zk的监听机制:
	 * 在初始化zk对象的时候定义好回调函数,对znode进行操作时可以注册监听
	 * 监听的znode上发生相应事件时,客户端zk会接收到zookeeper的事件通知
	 * 客户端zk根据事件调用我们事先定义好的回调函数
	 * @throws Exception
	 * 
	 */
	@Test
	public void testWatch() throws Exception {
		//获取/nodes1的数据时进行监听
         //第二个参数true表示监听
		byte[] data = zk.getData("/nodes1", true, null);

		//获取/nodes1的子节点时进行监听
		List<String> children = zk.getChildren("/nodes1", true);
		Thread.sleep(Long.MAX_VALUE);
	}
	
	
	/**
	 * 将配置文件上传到zookeeper中进行管理
	 * @throws Exception
	 */
	@Test
	public void testUploadConfigFileToZookeeper() throws Exception{
		String schema_xml = FileUtils.readFileToString(new File("c:/web.xml"));
		zk.create("/conf", null, Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
		zk.create("/conf/web.xml", schema_xml.getBytes(), 
				Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
		zk.close();
	}
}

 

需要注意的是,创建非叶子节点时,zk会自动加上序号,所以在操作非叶子节点时,不能像添加的时候一样以原路径操作,要加上序号,如:

 

[zk: localhost:2181(CONNECTED) 50] ls /    

[dubbo, nodes2, conf, nodes1, zookeeper]

[zk: localhost:2181(CONNECTED) 51] ls /nodes1

[testNode20000000001, testNode10000000000]

[zk: localhost:2181(CONNECTED) 52] ls /nodes2

[testNode10000000000]

[zk: localhost:2181(CONNECTED) 53] get /nodes1/testNode1

Node does not exist: /nodes1/testNode1

[zk: localhost:2181(CONNECTED) 54] get /nodes1/testNode10000000000

/nodes1/testNode1

cZxid = 0x26a

.......

[zk: localhost:2181(CONNECTED) 55] delete /nodes1/testNode1      

Node does not exist: /nodes1/testNode1

[zk: localhost:2181(CONNECTED) 56]

 

Zookeeper高可用集群搭建与测试

服务器集群信息

Zookeeper 集群的设计目标是高性能、高可用性、严格有序访问的,其中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的。正是基于这个特性,要将 ZK 集群的节点数量要为奇数(2n+1:如 357 个节点)较为合适。

 

服务器 1:192.168.2.127  端口:2181、2881、3881

服务器 2:192.168.2.128  端口:2182、2882、3882

服务器 3:192.168.2.130  端口:2183、2883、3883

 

端口说明:

 

218x:客户端(应用程序)连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端

288x:该服务器与集群中的 Leader 服务器交换信息的端口

388x:选举通信端口,如果集群中的 Leader 服务器挂了,需要选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口

 

设置多回话操作

在操作之前,先把Xshell或者SecureCRT设置成多会话操作,即同时操纵多个会话窗口,很方便,打开127128130会话窗口。

 

Xshell:查看-》撰写栏,Xshell的下面就会出现一个编辑框,就是撰写栏,点击左下角撰写栏上的蓝色图标,然后选择【全部会话】。

 

SecureCRT:右击任何一个会话窗口下面的交互窗口,选中“发送交互到所有标签”。

 

下面某些操纵就可以在撰写栏上同时操纵三台服务器了。

 

下载或上传文件

zookeeper-3.4.9.tar.gz下载或者上传到三台服务器中的/usr/ftpuser目录

解压

mkdir /usr/local/zookeeper

tar -zxvf zookeeper-3.4.9.tar.gz -C /usr/local/zookeeper

cd /usr/local/zookeeper

 

按节点号对 zookeeper 目录重命名

#127

[root@localhost zookeeper]# mv zookeeper-3.4.9/ node-127

#128

[root@localhost zookeeper]# mv zookeeper-3.4.9/ node-128

#130

[root@localhost zookeeper]# mv zookeeper-3.4.9/ node-130

 

创建数据日志目录

在各 zookeeper 节点目录/usr/local/zookeeper/node-*下创建datalogs目录

 

cd node-*

mkdir data

mkdir logs

 

拷贝修改配置文件

zookeeper/node-*/conf 目录下的 zoo_sample.cfg 文件拷贝一份,命名为 zoo.cfg

 

cd conf

cp zoo_sample.cfg zoo.cfg

 

#127

[root@localhost conf]# vi zoo.cfg

...

#dataDir=/tmp/zookeeper

dataDir=/usr/local/zookeeper/node-127/data

dataLogDir=/usr/local/zookeeper/node-127/logs

# the port at which the clients will connect

clientPort=2181

server.1=192.168.2.127:2881:3881

server.2=192.168.2.128:2882:3882

server.3=192.168.2.130:2883:3883

...

 

 

#128

[root@localhost conf]# vi zoo.cfg

...

#dataDir=/tmp/zookeeper

dataDir=/usr/local/zookeeper/node-128/data

dataLogDir=/usr/local/zookeeper/node-128/logs

# the port at which the clients will connect

clientPort=2182

server.1=192.168.2.127:2881:3881

server.2=192.168.2.128:2882:3882

server.3=192.168.2.130:2883:3883

...

 

#130

[root@localhost conf]# vi zoo.cfg

...

#dataDir=/tmp/zookeeper

dataDir=/usr/local/zookeeper/node-130/data

dataLogDir=/usr/local/zookeeper/node-130/logs

# the port at which the clients will connect

clientPort=2183

server.1=192.168.2.127:2881:3881

server.2=192.168.2.128:2882:3882

server.3=192.168.2.130:2883:3883

...

 

创建 myid 文件

进入/usr/local/zookeeper/node-*/data,编辑 myid 文件,并在对应的 IP 的机器上输入对应的编号。如在 node-128 上,myid 文件内容就是1,node-128 上就是 2node-130 上就是 3

 

#127

[root@localhost data]# vi /usr/local/zookeeper/node-127/data/myid ## 值为 1

#128

[root@localhost data]# vi /usr/local/zookeeper/node-128/data/myid ## 值为 2

#130

[root@localhost data]# vi /usr/local/zookeeper/node-130/data/myid ## 值为 3

 

打开端口

 

在防火墙中打开要用到的端口 218x、288x388x。打开vi /etc/sysconfig/iptables增加以下 3

 

#127

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2181 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2881 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 3881 -j ACCEPT

 

#128

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2182 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2882 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 3882 -j ACCEPT

 

#130

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2183 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2883 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 3883 -j ACCEPT

 

重启防火墙

 

service iptables restart

 

启动zookeeper集群

cd node*/bin

./zkServer.sh start

 

查看zookeeper集群状态

./zkServer.sh status

 

可见,三个节点中,有一个为Mode: leader,另外两个为Mode: follower

显示状态报错参考:

http://www.cnblogs.com/xiaohua92/p/5460515.html

 

dubbo管控台链接集群

需要先安装dubbo管控台,我们就用事先已经安装好的dubbo的管控台(192.168.2.129),下面我们修改下配置文件

 

[root@localhost ~]#

vi /usr/local/apache-tomcat-7.0.70/webapps/ROOT/WEB-INF/dubbo.properties

 

dubbo.registry.address=zookeeper://192.168.2.127:2181?backup=192.168.2.128:2182,192.168.2.130:2183

dubbo.admin.root.password=dubbo129

dubbo.admin.guest.password=dubbo129

 

启动dubbo管控台

[root@localhost ~]# cd /usr/local/apache-tomcat-7.0.70/bin/

[root@localhost bin]# ./startup.sh

 

应用连zookeeper集群以及高可用测试

 

在《基于dubbo构建分布式项目与服务模块》一文中,我们创建了服务消费者与服务提供者,现在我们将服务提供者注册到zookeeper集群。

修改mcweb\mcweb-logic\src\main\resources\spring\dubbo-provider.xml

 

<!-- zookeeper注册中心地址 -->

<dubbo:registry protocol="zookeeper"

address="192.168.2.127:2181,192.168.2.128:2182,192.168.2.130:2183" />

 

启动mcweb-logic。在dubbo的“首页 > 服务治理 > 服务”中可以看到已经注册到 zookeeper 注册中心的服务的相关情况。看看mcweb-logic的日志:

 

 

 

 

可见,应用已经连接到了zookeeper集群中的128节点。现在我们把128zookeeper停止,看看mcweb-logic的日志变化:

 

 

 

可见,zookeeper集群的状态发生了变化,当128节点停止后,应用重新连接到了zookeeper集群中的127节点。现在集群中还有两个节点可用,集群仍可以对外可用,当再把127节点停止后,集群对外就不可用:

 

 

 

只要有过半的节点是正常的情况下,那么整个zookeeper集群对外就是可用的,这是zookeeper集群高可用的基础。

posted @ 2016-10-27 15:07  ITPSC  阅读(1386)  评论(0编辑  收藏  举报