摘要: Spark RDD的宽依赖中存在Shuffle过程,Spark的Shuffle过程同MapReduce,也依赖于Partitioner数据分区器,Partitioner类的代码依赖结构主要如下所示: 主要是HashPartitioner和RangePartitioner两个类,分别用于根据RDD中k 阅读全文
posted @ 2017-02-08 11:51 liuming_1992 阅读(9285) 评论(0) 推荐(4) 编辑