会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Just do it...
学而不思则罔,思而不学则殆...
博客园
首页
新随笔
联系
管理
订阅
2015年5月21日
有了Hadoop MapReduce, 为什么还要Spark?
摘要: a. 由于MapReduce的shuffle过程需写磁盘,比较影响性能;而Spark利用RDD技术,计算在内存中进行.b. MapReduce计算框架(API)比较局限, 而Spark则是具备灵活性的并行计算框架.c. 再说说Spark API方面- Scala: Scalable Language...
阅读全文
posted @ 2015-05-21 17:29 Ready!
阅读(5985)
评论(0)
推荐(0)
编辑
公告