会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
人间值得
博客园
首页
新随笔
联系
订阅
管理
spark集群在执行任务出现nitial job has not accepted any resources; check your cluster UI to ensure that worker
1 spark集群在执行任务时出现了:
2 原因:这是因为默认分配的内存过大(1024M)
3 解决方法:
在conf/spark-env.sh下添加export SPARK_WORKER_MEMORY=512和export SPARK_DAEMON_MEMORY=256
posted @
2018-11-19 20:25
人间值得
阅读(
361
) 评论(
0
)
编辑
收藏
举报
刷新页面
返回顶部
公告