第五章_Spark核心编程_Rdd_行动算子_countByKey

 


1.定义

复制代码
  /*
* 1.定义
*     def countByKey(): Map[K, Long]
* 2.功能
*     统计每种 key 的个数
* 3.执行流程
*     1. 每个节点统计分区key,count(1)
*     2. 拉取每个分区 key,count(1),再做聚合
*
* */
复制代码

2.示例

复制代码
  object countByKeyTest extends App {

    val sparkconf: SparkConf = new SparkConf().setMaster("local").setAppName("distinctTest")

    val sc: SparkContext = new SparkContext(sparkconf)

    private val rdd = sc.makeRDD(List((1,"x"),(1,"x"),(2,"x"),(2,"x"),(2,"x")), 2)

    private val result: collection.Map[Int, Long] = rdd.countByKey()

    println(result)

    sc.stop()
  }
复制代码

 

posted @   学而不思则罔!  阅读(43)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· 字符编码:从基础到乱码解决
· SpringCloud带你走进微服务的世界
点击右上角即可分享
微信分享提示