Standalone部署入门

Standalone


  构建一个由Master+Slave构成的Spark集群。

安装使用


1.进入spark安装目录的conf文件夹

2.修改spark-env.sh,默认是只有spark-env.sh.template文件,将其重命名或者拷贝重命名

SPARK_MASTER_HOST=hadoop1
SPARK_MASTER_PORT=7077

3.修改slave文件,添加worker节点

hadoop1
hadoop2
hadoop3

4.分发spark包

xsync spark/

5.启动

$ sbin/start-all.sh

如果遇到 JAVA_HOME not set 异常,在sbin目录下的spark-config.sh文件加入如下配置即可。

export JAVA_HOME=XXX
posted @ 2020-04-21 18:22  Q1Zhen  阅读(135)  评论(0编辑  收藏  举报