会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
hadoop_dev
博客园
首页
新随笔
联系
管理
订阅
2017年4月17日
spark架构
摘要: 在分布式环境下,Spark 集群采用的是master/slave结构。Master是对应集群中的含有master进程的节点,slave是集群中含有worker进程的节点。Master作为整个集群的控制器,负责整个集群的正常运行;worker相当于是计算节点,接收主节点命令与进行状态汇报,client
阅读全文
posted @ 2017-04-17 15:14 hadoop_dev
阅读(1018)
评论(0)
推荐(0)
编辑
公告