会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
蓝鲸王子
机器学习、深度学习、分布式计算研究者
博客园
首页
联系
订阅
管理
2016年12月18日
Spark优化之二:集群上运行jar程序,状态一直Accepted且不停止不报错
摘要: 如果运行Spark集群时状态一直为Accepted且不停止不报错,比如像下面这样的情况: 一般是由于有多个用户同时向集群提交任务或一个用户向集群同时提交了多个任务导致Yarn资源的分配错误。解决这个问题,只需要更改Hadoop的配置文件:/etc/hadoop/conf/capacity-sched
阅读全文
posted @ 2016-12-18 19:36 蓝鲸王子
阅读(8508)
评论(0)
推荐(0)
编辑
公告