摘要: a. 由于MapReduce的shuffle过程需写磁盘,比较影响性能;而Spark利用RDD技术,计算在内存中进行.b. MapReduce计算框架(API)比较局限, 而Spark则是具备灵活性的并行计算框架.c. 再说说Spark API方面- Scala: Scalable Language... 阅读全文
posted @ 2015-05-21 17:29 Ready! 阅读(5985) 评论(0) 推荐(0) 编辑