会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Lee's Blog
念头通达
首页
新随笔
联系
订阅
管理
2022年5月25日
Hadoop和Spark场景、性能比较
摘要: Hadoop和Spark Spark 基于内存进行数据处理,适合数据量大,对实时性要求不高的场合。 Hadoop 要求每个步骤的数据序列化到磁盘,I/O成本高,导致交互分析迭代算法开销很大。 Hadoop 的MapReduce 表达能力有限,所有计算都要转换成 Map和Reduce两个操作,不能适用
阅读全文
posted @ 2022-05-25 16:45 Leejk
阅读(441)
评论(0)
推荐(0)
编辑
公告