Spark functions

对spark functions进行一个逻辑上的分类,分类的标准就是,是否是基于key-value的。

 

1.基于key-value

   1.1 combineByKey为基础的,他们都会进行shuffle操作,比如foldByKey,reduceByKey,groupByKey。

   1.2 cogroup,join,substract 对两个或者多个key-value RDD进行操作的。

   1.3 mapValues,flatMapValues,countByKey

 

 

2.Double

3.General

   map,flatMap,filter,count,union,cache,mapPartitions,.....

posted @   王宝生  阅读(389)  评论(0编辑  收藏  举报
编辑推荐:
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
阅读排行:
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· .NET周刊【3月第1期 2025-03-02】
· [AI/GPT/综述] AI Agent的设计模式综述
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
点击右上角即可分享
微信分享提示