摘要: Spark是通用的基于内存计算的大数据框架,可以和hadoop生态系统很好的兼容,以下来部署Spark集群 集群环境:3节点 Master:bigdata1 Slaves:bigdata2,bigdata3 Master负责任务的分发,与集群状态的显示 Slaves运行具体的Worker任务,最后交 阅读全文
posted @ 2016-08-15 17:03 小得盈满 阅读(15827) 评论(0) 推荐(1) 编辑