摘要: 如果运行Spark集群时状态一直为Accepted且不停止不报错,比如像下面这样的情况: 一般是由于有多个用户同时向集群提交任务或一个用户向集群同时提交了多个任务导致Yarn资源的分配错误。解决这个问题,只需要更改Hadoop的配置文件:/etc/hadoop/conf/capacity-sched 阅读全文
posted @ 2016-12-18 19:36 蓝鲸王子 阅读(8508) 评论(0) 推荐(0) 编辑