Spark中遇到的问题

spark启动slave时提示 JAVA_HOME is not set

解决方法:

在sbin目录spark-config.sh 中添加自己的jdk 路径
export JAVA_HOME=/home/hadoop/modules/jdk

启动:

sbin/start-all.sh 

 

posted @ 2019-08-03 01:06  DiYong  阅读(179)  评论(0编辑  收藏  举报