spark 编译遇到的错误及解决办法(四)

17/02/08 23:38:52 WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources

发现以上问题

首先应用submit代码如下

 ./spark-submit --master spark://master:7077 --class SparkPi /home/hadoop/Downloads/testproject.jar

根据问题提示,确认了集群中两个worker都是alive状态,猜想资源是否够?

所以在submit代码加入

./spark-submit --master spark://master:7077 --executor-memory 512m --class SparkPi /home/hadoop/Downloads/testproject.jar

问题解决!

问题二:之前发现sparkpi实例程序以submit形势传递到集群中运行,也返回结果,但是4040端口不能访问,且application的completed显示0

在排除网上的可能问题后,我发现是代码中的setMaster端口写错了或者是直接写成了local...

posted @ 2017-02-09 15:42  O_din  阅读(598)  评论(0编辑  收藏  举报