将zookeeper-3.4.9.tar.gz上传到master虚拟机
解压:tar -zxvf zookeeper-3.4.9.tar.gz
- 配置环境变量
1 vi ~/.bash_profile
添加下边两行配置
1 export ZK_HOME=/home/zhangc/application/zookeeper-3.4.9(zookeeper的存放路径) 2 export PATH=$ZK_HOME/bin:$PATH
执行
1 source ~/.bash_profile
- 配置zookeeper配置文件
进入zookeeper-3.4.9下的conf目录
1 cd /home/zhangc/aspplication/zookeeper-3.4.9/conf
复制zoo_sample.cfg为zoo.cfg
1 cp zoo_sample.cfg zoo.cfg
修改zoo.cfg
1 vi zoo.cfg
修改dataDir=/home/zhangc/application/zkdata(需要创建该目录)
在配置文件末尾加:(因为我hadoop集群有3个节点)
1 server.1=master:2888:3888 2 server.2=slave1:2888:3888 3 server.3=slave2:2888:3888
- 设置myid
在application目录下创建zkdata
1 mkdir zkdata 2 cd zkdata 3 vi myid
里边输入1,保存(在slave1节点中的myid应该为2,slave2节点中的myid为3)
- 将master上的zookeeper-3.4.9远程复制到slave1和slave2节点中
1 scp -r /home/zhangc/application/zookeeper-3.4.9 zhangc@slave1:/home/zhangc/application/zookeeper-3.4.9 2 scp -r /home/zhangc/application/zookeeper-3.4.9 zhangc@slave2:/home/zhangc/application/zookeeper-3.4.9
分别修改slave1和slave2中的~/.bash_profile、myid文件
- 启动zookeeper
因为zookeeper需要hdfs支持,所以在启动zookeeper之前需要先把hdfs启动起来
在master节点上执行
1 start-dfs.sh
最后在每个节点上启动zkServer.sh start (zkServer.sh 文件在zookeeper-3.4.9/bin下)
jps查看进程
QuorumPeerMain
zkServer.sh status查看zookeeper的类型(leader或者follower)