herman很慢

导航

2020年3月25日 #

Spark中groupByKey和reduceByKey的区别

摘要: 重点比较reduceByKey和groupByKey:相同点:1,都作用于 RDD[K,V]2,都是根据key来分组聚合3, 默认,分区的数量都是不变的,但是都可以通过参数来指定分区数量 不同点:1, groupByKey默认没有聚合函数,得到的返回值类型是RDD[ k,Iterable[V]]2, 阅读全文

posted @ 2020-03-25 08:51 herman很慢 阅读(698) 评论(0) 推荐(0) 编辑