四、Zookeeper3.7安装

前文

Zookeeper安装

@

前言

ZooKeeper是用Java编写的,运行在Java环境上,因此,在部署zk的机器上需要安装Java运行环境。为了正常运行zk,我们需要JRE1.6或者以上的版本。
对于集群模式下的ZooKeeper部署,3个ZooKeeper服务进程是建议的最小进程数量,而且不同的服务进程建议部署在不同的物理机器上面,以减少机器宕机带来的风险,以实现ZooKeeper集群的高可用。
ZooKeeper对于机器的硬件配置没有太大的要求。例如,在Yahoo!内部,ZooKeeper部署的机器其配置通常如下:双核处理器,2GB内存,80GB硬盘。

由于已有Hadoop集群,所以可省略一些步骤,比如hosts文件内容防火墙等

CentOS7 hadoop3.3.1安装(单机分布式、伪分布式、分布式)

下载[Apache ZooKeeper]

自己用的3.7

或者使用镜像下载

#wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/{选择版本}
wget https://mirror.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.7.0/apache-zookeeper-3.7.0-bin.tar.gz --no-check-certificate

--no-check-certificate :使用“–no-check-certificate”选项, 以不安全的方式连接

解压安装包

tar -zxvf  apache-zookeeper-3.7.0-bin.tar.gz -C /export/servers/
#tar -zxvf  apache-zookeeper-3.7.0-bin.tar.gz -C 自定义目录

进入conf目录

cd /export/servers/apache-zookeeper-3.7.0-bin/conf

修改zoo_sample.cfg并重命名zoo.cfg

mv zoo_sample.cfg zoo.cfg
vi zoo.cfg

添加修改一下设置

#设置初始通信时限
initLimit=10

#设置同步通信时限
syncLimit=5

#设置数据目录+数据此计划路径/
dataDir=/export/servers/data/zookeeper/zkdata
#设置数据日志
dataLogDir=/export/servers/data/zookeeper/logs

#设置客户端连接的端口号
clientPort=2181

# 配置zookeeper集群的服务器编号以及对应的主机名、通信端口号(心跳端口号)和选举端口号
server.1=hadoop1:2888:3888
server.2=hadoop2:2888:3888
server.3=hadoop3:2888:3888

在设置的dataDir目录下,创建zkdata文件夹

mkdir -p /export/data/zookeeper/zkdata

并在zkdata文件夹下创建myid文件。

myid指明自己的id,对应上面zoo.cfg中server.后的数字,第一台hadoop1的内容为1,第二台hadoop2的内容为2,以此类推,内容如下

hadoop1$ cat /export/data/zookeeper/zkdata/myid
1

hadoop2$ cat /export/data/zookeeper/zkdata/myid
2

配置环境变量

vi /etc/profile

添加zookeeper环境变量

export ZK_HOME=/export/servers/apache-zookeeper-3.7.0-bin
export PATH=$PATH:$ZK_HOME/bin

首先将zookeeper安装目录分发至hadoop2和hadoop3服务器上

scp -r /export/servers/{zookeeper解压目录}/ hadoop2:/export/servers/
scp -r /export/servers/{zookeeper解压目录}/ hadoop3:/export/servers/

其次将myid的文件分发至hadoop2和hadoop3

scp -r /export/data/zookeeper/ hadoop2:/export/servers/
scp -r /export/data/zookeeper/ hadoop3:/export/servers/

最后将profile文件也分发至hadoop2和hadoop3服务器上

scp /etc/profile hadoop2:/etc/profile
scp /etc/profile hadoop3:/etc/profile

环境变量生效

分别刷新

source /etc/profile

启动zookeeper服务

由于我们是集群方式配置

所以三台必须全部启动才能看得到Leader角色和Follower角色

如果集群只启动一台直接查看会得到如下图

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FvHS6wkf-1636461113609)(C:\Users\Eureka\AppData\Roaming\Typora\typora-user-images\image-20211109202730177.png)]

分别在Hadoop1,hadoop2,hadoop3执行

zkServer.sh start

此时我们再次查看

zkServer.sh status
#启动命令会在hadoop看到leader,其余两个看到follower

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dlg70zvO-1636461113611)(C:\Users\Eureka\AppData\Roaming\Typora\typora-user-images\image-20211109202917225.png)]

三个都启动

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-137pcQx1-1636461113613)(C:\Users\Eureka\AppData\Roaming\Typora\typora-user-images\image-20211109203003763.png)]

如果启动失败,运行下方命令,查看原因

zkServer.sh start-foreground
posted @ 2021-11-13 22:37  李好秀  阅读(211)  评论(0编辑  收藏  举报