摘要: Hadoop和Spark Spark 基于内存进行数据处理,适合数据量大,对实时性要求不高的场合。 Hadoop 要求每个步骤的数据序列化到磁盘,I/O成本高,导致交互分析迭代算法开销很大。 Hadoop 的MapReduce 表达能力有限,所有计算都要转换成 Map和Reduce两个操作,不能适用 阅读全文
posted @ 2022-05-25 16:45 Leejk 阅读(441) 评论(0) 推荐(0) 编辑