spark集群模式


1、配置集群主机免登陆,参考http://www.cnblogs.com/puroc/p/5996730.html
2、修改/etc/hosts文件,增加所有主机名和IP的对应关系

10.10.20.204 docker-1
10.10.20.219 docker-2

3、修改spark-env.sh,生命master主机的地址(需要使用主机名,使用IP时发生了莫名奇妙的错误)

export SPARK_MASTER_HOST=docker-1

4、修改slaves文件,增加slave节点的主机名

docker-2

5、将spark程序拷贝到所有的slave节点上

6、执行sbin/start-all.sh

7、访问master的ui,http://docker-1:8080
8、提交测试程序到集群,在ui界面看执行情况。

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://docker-1:7077 \
/root/spark/spark-2.0.1-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.0.1.jar

 

posted @ 2016-10-25 17:33  puroc  阅读(218)  评论(0编辑  收藏  举报