会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
知晓的老巢
唯有专注,才能保证对象的高内聚,年轻不狂妄自大,拼搏要有计划
博客园
首页
新随笔
联系
订阅
管理
2020年5月9日
Spark高级算子aggregate所遇到的坑
摘要: val rdd3 = sc.parallelize(List("12","23","345","4567"),2) rdd3.aggregate("")((x,y) => math.max(x.length, y.length).toString, (x,y) => x + y) 两个分区先计算出字
阅读全文
posted @ 2020-05-09 09:09 知晓的老巢
阅读(314)
评论(0)
推荐(0)
编辑
公告