摘要: Spark 一个用于大规模数据处理的统一计算引擎,相当于Hadoop中的MapReduce。但除最终计算结果外其他数据都保存在内存,且任务切分比单一的Map+Reduce更加灵活。 基于内存计算,它的速度可以达到MapReduce的上百倍 Spark vs Hadoop 综合能力:Spark是一个综 阅读全文
posted @ 2022-06-12 21:40 某某人8265 阅读(709) 评论(0) 推荐(0) 编辑