摘要: 在分布式环境下,Spark 集群采用的是master/slave结构。Master是对应集群中的含有master进程的节点,slave是集群中含有worker进程的节点。Master作为整个集群的控制器,负责整个集群的正常运行;worker相当于是计算节点,接收主节点命令与进行状态汇报,client 阅读全文
posted @ 2017-04-17 15:14 hadoop_dev 阅读(1005) 评论(0) 推荐(0) 编辑