摘要: spark的四种分布式运行模式 如图所示,上方为spark的架构图,spark的组件可以分为四个部分,driver、cluster Manager、worker和executor根据clusterManager的不同,spark可以分成四种不同的运行模式,standalone、local clust 阅读全文
posted @ 2019-01-21 16:40 粑粑蓉子 阅读(1419) 评论(0) 推荐(0) 编辑