摘要: 一.Spark介绍 Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是开源的类Hadoop MapReduce的通用并行框架,Spark拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要 阅读全文
posted @ 2018-07-06 20:14 faramita2016 阅读(842) 评论(0) 推荐(0) 编辑