摘要: 在Spark中,支持4种运行模式:1)Local:开发时使用2)Standalone: 是Spark自带的,如果一个集群是Standalone的话,那么就需要在多台机器上同时部署Spark环境3)YARN:建议大家在生产上使用该模式,统一使用YARN进行整个集群作业(MR、Spark)的资源调度4) 阅读全文
posted @ 2019-04-12 22:48 Arthur-Lance 阅读(640) 评论(0) 推荐(0) 编辑