SPARK spark-submit提交deploy-mode client改为cluster模式

报错内容:ERROR deploy.ClientEndpoint: Exception from cluster was: java.io.FileNotFoundException: /usr/log_data/java/spark-project-0.0.1-SNAPSHOT.jar (No such file or directory)

查找原因是:

spark-submit 提交任务时,会指定jar包的位置,spark会为每一个提交的application生成一个文件夹,默认位于$SPARK_HOME/work目录下,用以存放从HttpFileServer下载下来的第三方库依赖及Executor运行时生成的日志信息

解决方法:

1、rm -rf $SPARK_HOME/work目录下文件,重新启动spark可以正常运行了

2、在spark-env.sh下面增加清理文件语句

SPARK_WORKER_OPTS=”-Dspark.worker.cleanup.enabled=true”

posted @ 2022-05-29 08:31  田领群  阅读(43)  评论(0编辑  收藏  举报