摘要: 在spark yarn模式下跑yarn-client时出现无法初始化SparkContext错误. jdk1.7的时候,没有如下报错,但是java1.8出现 原因可能与yarn配置文件中 containers 的默认属性有关,被强制限定了物理内存 可以尝试中hadoop的conf下yarn.xml配 阅读全文
posted @ 2017-09-27 18:01 RZ_Lee 阅读(2194) 评论(0) 推荐(0) 编辑