第五章_Spark核心编程_Rdd_转换算子_keyValue型_aggregateByKey

 


1. 定义

复制代码
  /*
  * 1. 定义
  *     def aggregateByKey[U: ClassTag](zeroValue: U, partitioner: Partitioner)
  *     (seqOp: (U, V) => U,combOp: (U, U) => U): RDD[(K, U)]
  *
  *     def aggregateByKey[U: ClassTag](zeroValue: U)
  *     (seqOp: (U, V) => U,combOp: (U, U) => U): RDD[(K, U)]
  *
  *     def aggregateByKey[U: ClassTag](zeroValue: U, numPartitions: Int)
  *     (seqOp: (U, V) => U,combOp: (U, U) => U): RDD[(K, U)]
  *
  *
  * 2.功能
  *    将数据根据不同的规则进行 分区内计算 和 分区间计算
  *    操作流程
  *       1. 分区内 对相同的key 分组
  *          示例 : key iter(value1,value2,value3)
  *
  *       2. 根据出入的规则 seqOp: (U, V) => U 对分区内相同的key 做聚合操作
  *          示例 :  seqOp(zeroValue,value1)...
  *
  *       3. 聚合后输出每个分区的结果 key,value
  *
  *       4. 拉取每个分区 的key,value ,并对相同key 的value做reduce操作(存在Shuffle过程)
  *          示例 :  combOp(zeroValue,value1)...
  *
  *       5. 对 所有分区的key 做完reduce操作后,按照指定的 partitioner 重新对结果分区
  *          不指定分区器时,用默认分区器 HashPartitoner
  *          不指定分区个数时,用父Rdd分区个数
  *
  * 3.note
  *    1. zeroValue 会参与 分区内和分区间的 reduce操作
  *    2. 返回值 value的类型 必须和 zeroValue的类型一致(可以转换value的类型)
  *           转换后的新Rdd key类型和父类型一致
  *                       value类型和传入zeroValue类型一致
  *
  * */
复制代码

2. 示例

复制代码
  object aggregateTest extends App {

    val sparkconf: SparkConf = new SparkConf().setMaster("local").setAppName("distinctTest")

    val sc: SparkContext = new SparkContext(sparkconf)

    val rdd: RDD[(Int, String)] = sc.makeRDD(List((2, "x1"), (2, "x2"), (2, "x3"), (4, "x4"), (5, "x5"), (5, "x6"), (6, "x7")), 2)

    private val rdd2 = rdd.aggregateByKey("")(
      //分区内计算规则 (从左往右计算)
      //对分区内 相同key 的value 做reduce操作
      (zeroValue: String, value1: String) => {
        println(s"key:${zeroValue} value:${value1}")
        zeroValue + "-" + value1
      }

      //拉取各个分区 key-value,对相同key 的value 做reduce操作
      , (zeroValue, par_value) => zeroValue + par_value
    )

    println(s"${rdd2.collect().mkString(",")}")

    //改变 Rdd Value类型
    //需求 : 实现sql中的 collect_list 方法
    private val rdd3: RDD[(Int, List[String])] = rdd.aggregateByKey(List[String]())(
      //输出类型 key,value
      (list: List[String], value1: String) => {
        list :+ value1
      }
      , (list1: List[String], list2: List[String]) => {
        list1.union(list2)
      }
    )

    println(s"${rdd3.collect().mkString(",")}")

    sc.stop()

    /*
    *
    * (4,-x4),(6,-x7),(2,-x1-x2-x3),(5,-x5-x6)
    * (4,List(x4)),(6,List(x7)),(2,List(x1, x2, x3)),(5,List(x5, x6))
    * */





  }
复制代码

 

posted @   学而不思则罔!  阅读(25)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· 字符编码:从基础到乱码解决
· SpringCloud带你走进微服务的世界
点击右上角即可分享
微信分享提示