会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
sandea
博客园
首页
新随笔
联系
订阅
管理
2019年12月11日
理解Spark RDD中的aggregate函数(转)
摘要: 针对Spark的RDD,API中有一个aggregate函数,本人理解起来费了很大劲,明白之后,mark一下,供以后参考。 首先,Spark文档中aggregate函数定义如下 def aggregate[U](zeroValue: U)(seqOp: (U, T) ⇒ U, combOp: (U,
阅读全文
posted @ 2019-12-11 10:25 sandea
阅读(604)
评论(0)
推荐(0)
编辑
公告