Zookeeper-单机/集群安装
简介
Zookeeper是一个高效的分布式协调服务,可以提供配置信息管理、命名、分布式同步、集群管理、数据库切换等服务。它不适合用来存储大量信息,可以用来存储一些配置、发布与订阅等少量信息。Hadoop、Storm、消息中间件、RPC服务框架、分布式数据库同步系统,这些都是Zookeeper的应用场景。
存储结构为树状结构
JDK安装
1.检查是否有安装jdk
Zookeeper依赖java环境输入 java -version 检查 如果安装了则会弹出jdk版本信息
2.安装java jdk
(1)检查当前linux是多少位。下载对应版本的jdk
输入命令:getconf LONG_BIT
(2)官网下载java jdk
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
(3)使用xftp上传到linux并解压
tar -zxvf jdk-8u181-linux-x64.tar.gz -C /usr/jdk
(4)安装jdk依赖环境
yum instal gilbc.i686
(5)配置环境变量
编辑 /etc/profile文件 在最后加上环境变量配置
#set java environment
JAVA_HOME=jdk路径
CLASSPATH=.:$JAVA_HOME/lib.tools.jar
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATH
(6)重新加载配置文件
命令:source /etc/profile
(7)检查是否安装成功
java -version
弹出jdk版本 则表示安装成功
单机版安装
1.下载zookeeper 并上传到linux 并解压
http://mirror.bit.edu.cn/apache/zookeeper/
2.进入主目录创建一个data文件
mkdir data
3.在data目录下创建一个myid文件
命令:touch myid
4.编辑myid文件 定义标识当前zookepper
我在这里设置为1 必须为数字
5.进入conf目录将zoo_sample.cfg 改名为zoo.cfg
6.编辑zoo.cfg在最后新增(感觉单机情况下不创建都不影响)
server.1 = 你的ip:2888:3888
2888为集群下各个节点通信的的端口
3888为当主节点挂掉 各个节点的投票端口
server.1 1为刚才myid配置的标识当前zookeeper的标识符
7.修改dataDir为刚才创建的data路径
dataDir=/usr/zookeeper-3.4.10/data
8.启动
通过bin目录 ./zkService start 启动 ./zkService stop停止 ./zkService stop 关闭
如果启动失败通过vi zookeeper.out 可以查看错误日志
集群版
为什么集群最小节点是3个
集群情况下,采用投票机制,存活节点超过集群节点半数以上 集群才可用。
1.比如集群2个节点 半数2/2=1 半数以上是2. 那么挂掉一个节点后集群不可用
2.集群节点是3个 半数3/2=1.5 那么至少存活2个节点集群可用,所以集群允许挂掉一个节点,
为什么集群节点建议为奇数个
1.比如3个集群节点。允许挂掉一个。
2.如果集群节点设置一个4个 4/4 半数以上是3,那么也只能允许挂掉一个节点 集群才可用
那么 3个节点和4个节点容错率都是一样 为何不节约服务器资源 配置3个呢
脑裂产生的数据不一致问题
大致就是master本身没挂 因为网络延迟 或者其他原因 其他节点访问不到 认为挂掉了。 重新投票 master 这个时候各个从节点部分还没有切换新的master 这个时候原来的master恢复, 会导致投票出多个master。不同从 从不同master同步数据。
集群版安装
为了方便,就不创建多个虚拟机。在同一台虚拟机器部署多个zookeeper 监听不同端口
1.将单机版的zookeeper复制3个
2.修改各个节点的zoo.conf的dataDir为当前节点的Data目录。以及端口改为不一致
node1
node2
node3
3.修改各个节点的myid 数字不重复(1 2 3)
node1
node2
node3
4.配置各个节点的投票监听端口 以及数据同步端口
(1)在各个zoo.conf配置
server.1 = 192.168.65.128:2888:3888
server.2 = 192.168.65.128:2889:3889
server.3 = 192.168.65.128:2890:3890
1 2 3 分别标识myid(投票默认会投自己为leader在交换结果的时候投给最大数)
比如1 和2个节点分别投票自己。当交换结果 1比2大。则1投票2为leader
node1
node2
node3
5.创建批处理命令
6.赋予权限
[root@localhost zookeeper]# chmod 777 zkServerStartAll.sh
[root@localhost zookeeper]# chmod 777 zkServerStopAll.sh
8.编辑2个文件 增加启动批处理命令和关闭批处理命令
9.按上面创建状态查看的批处理命令
10.执行命令查看启动状态
可以发现有一个leader和2个follower 如果leader挂掉了。会自动完成新一轮leader投票
zoo.cfg各个参数说明
摘自:https://www.cnblogs.com/xiohao/p/5541093.html
参数名 |
说明 |
clientPort |
客户端连接server的端口,即对外服务端口,一般设置为2181吧。 |
dataDir |
存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数dataLogDir, 事务日志的写性能直接影响zk性能。 |
tickTime |
ZK中的一个时间单元。ZK中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime。 |
dataLogDir |
事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升ZK性能。 |
globalOutstandingLimit |
最大请求堆积数。默认是1000。ZK运行的时候, 尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。 |
preAllocSize |
预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。如果ZK的快照频率较大的话,建议适当减小这个参数。(Java system property:zookeeper.preAllocSize ) |
snapCount |
每进行snapCount次事务日志输出后,触发一次快照(snapshot), 此时,ZK会生成一个snapshot.*文件,同时创建一个新的事务日志文件log.*。默认是100000.(真正的代码实现中,会进行一定的随机数处理,以避免所有服务器在同一时间进行快照而影响性能)(Java system property:zookeeper.snapCount ) |
traceFile |
用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(Java system property:? requestTraceFile ) |
maxClientCnxns |
单个客户端与单台服务器之间的连接数的限制,是ip级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台ZK服务器之间的连接数限制,不是针对指定客户端IP,也不是ZK集群的连接数限制,也不是单台ZK对所有客户端的连接数限制。指定客户端IP的限制策略,这里有一个patch,可以尝试一下:http://rdc.taobao.com/team/jm/archives/1334(No Java system property) |
clientPortAddress |
对于多网卡的机器,可以为每个IP指定不同的监听端口。默认情况是所有IP都监听 clientPort 指定的端口。 New in 3.3.0 |
minSessionTimeoutmaxSessionTimeout |
Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 * tickTime ~ 20 * tickTime 这个范围 New in 3.3.0 |
fsync.warningthresholdms |
事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。(Java system property: fsync.warningthresholdms )New in 3.3.4 |
autopurge.purgeInterval |
在上文中已经提到,3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(No Java system property) New in 3.4.0 |
autopurge.snapRetainCount |
这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(No Java system property) New in 3.4.0 |
electionAlg |
在之前的版本中, 这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“TCP-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(No Java system property) |
initLimit |
Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许F在 initLimit 时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(No Java system property) |
syncLimit |
在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果L发出心跳包在syncLimit之后,还没有从F那里收到响应,那么就认为这个F已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(No Java system property) |
leaderServes |
默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(Java system property: zookeeper. leaderServes )。 |
server.x=[hostname]:nnnnn[:nnnnn] |
这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于F和L之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。 |
group.x=nnnnn[:nnnnn]weight.x=nnnnn |
对机器分组和权重设置,可以 参见这里(No Java system property) |
cnxTimeout |
Leader选举过程中,打开一次连接的超时时间,默认是5s。(Java system property: zookeeper. cnxTimeout ) |
zookeeper.DigestAuthenticationProvider |
ZK权限设置相关,具体参见 《 使用super 身份对有权限的节点进行操作 》 和 《 ZooKeeper 权限控制 》 |
skipACL |
对所有客户端请求都不作ACL检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(Java system property: zookeeper.skipACL ) |
forceSync |
这个参数确定了是否需要在事务日志提交的时候调用 FileChannel .force来保证数据完全同步到磁盘。(Java system property: zookeeper.forceSync ) |
jute.maxbuffer |
每个节点最大数据量,是默认是1M。这个限制必须在server和client端都进行设置才会生效。(Java system property: jute.maxbuffer ) |