会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
GJS
少年,奋起吧。
博客园
首页
博问
闪存
新随笔
订阅
管理
2016年7月5日
spark
摘要: 论文:Spark: Cluster Computing with Working Sets 1.背景: 解决一些hadoop无法胜任的工作,倒不是hadoop不能做,就是hadoop做这些事情效果不好,时间长。因为hadoop 每个map reduce都会把中间内容数据写到disk里面,之后再从di
阅读全文
posted @ 2016-07-05 18:58 GJS Blog
阅读(437)
评论(0)
推荐(0)
编辑