spark on yarn

公司中一般采用spark on yarn 模式,下面主要介绍spark on yarn的安装与简单程序运行。

1、spark on yarn两种运行模式

yarn-cluster:用于生产环境。Driver和AM运行在一起,client单独。

yarn-client:能立即看到输出结果。Driver运行在本地。AM仅用来管理资源。

client提交的job都会在worker上分配一个唯一的APPmaster。

2、配置spark-env.sh文件,让spark找到yarn在哪里

HADOOP_CONF_DIR=/home/hadoop/app/hadoop/etc/hadoop

3、配置slaves文件,指定在哪些节点运行worker

4、spark-env.sh—spark的环境变量

5、试运行集群

bin/spark-shell --master yarn-client

启动成功:

6、作业提交(运行pi)

bin/spark-submit \
--class org.apache.spark.examples.JavaSparkPi \
--master yarn-client \
--num-executors 1 \
--driver-memory 1g \
--executor-memory 1g \
--executor-cores 1 \
lib/spark-examples-1.6.1-hadoop2.6.0.jar

错误解决:

 

解决方式:

  • 同步时间
  • 在hadoop配置文件中yarn-site.xml配置

 

posted @ 2017-12-22 21:53  乡村骑士2  阅读(141)  评论(0编辑  收藏  举报