java/Java Pyton 大数据 Hadoop Spark

摘要: Spark中有两个类似的api,分别是reduceByKey和groupByKey。这两个的功能类似,但底层实现却有些不同,那么为什么要这样设计呢?我们来从源码的角度分析一下。 先看两者的调用顺序(都是使用默认的Partitioner,即defaultPartitioner) 所用spark版本:s 阅读全文
posted @ 2018-10-28 21:56 zzzzMing 阅读(1427) 评论(0) 推荐(0) 编辑