会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
L先生AI课堂
联想集团算法工程师一枚! Get busy living, or get busy dying!!
博客园
首页
联系
订阅
管理
2018年1月6日
Spark算子篇 --Spark算子之aggregateByKey详解
摘要: 一。基本介绍 rdd.aggregateByKey(3, seqFunc, combFunc) 其中第一个函数是初始值 3代表每次分完组之后的每个组的初始值。 seqFunc代表combine的聚合逻辑 每一个mapTask的结果的聚合成为combine combFunc reduce端大聚合的逻辑
阅读全文
posted @ 2018-01-06 23:00 L先生AI课堂
阅读(8437)
评论(1)
推荐(1)
编辑
公告