(二)Spark高可用HA搭建

一.集群规划

  Master Slave1 Slave2 Slave3
IP 192.168.2.131 192.168.2.132 192.168.2.133 192.168.2.134
Zookeeper Y Y Y N
Master Y Y N N
Worker Y Y Y Y

二.搭建Spark(HA)

2.1.说明

Spark(HA)启动前需要启动、zookeeper、hadoop、可参照zookeeperhadoop(HA)进行搭建。 Spark参照Spark(spark on yarn 模式)安装,然后改动一些配置重启Spark即可。

1.配置spark-env.sh文件中添加【其他不变】
# 设置zookeeper维护主备切换
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181 -Dspark.deploy.zookeeper.dir=/spark"
2.手动启动
# cd /usr/local/spark/sbin/  进
# ./start-master.sh  启动备机
# jps  查看
# netstat -ntulp | grep Master进程号 通过进程号来查看端口

2.2.验证

登录Spark的Web页面:192.168.2.131:8081(Master)、192.168.2.132:8082(Slave1)。格式:IP+查看的端口号

干掉Master(alive)看看

登录Web

posted @ 2020-06-27 11:34  九五二七_唐伯虎  阅读(164)  评论(0编辑  收藏  举报