第五章_Spark核心编程_Rdd_转换算子_Value型_sortBy
1. 定义
/* * 1. 定义 * def sortBy[K]( * f: (T) => K, * ascending: Boolean = true, * numPartitions: Int = this.partitions.length) * (implicit ord: Ordering[K], ctag: ClassTag[K]): RDD[T] * f: (T) => K : 指定要排序的key(按函数结果排序) * ascending : true-升序 false-降序 * numPartitions : 指定排序后的分区数量 * * 2. 功能 * 对 Rdd元素按照指定规则 全局排序 * * 3. note * 先全局排序,再对结果分区(中间存在Shuffle过程) * */
object sortByTest extends App { val sparkconf: SparkConf = new SparkConf().setMaster("local").setAppName("distinctTest") val sc: SparkContext = new SparkContext(sparkconf) val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8, 8, 2), 2) private val rdd1: RDD[Int] = rdd.sortBy(e => e,false,1) rdd1.saveAsTextFile("Spark_319/src/output/01") println(s"当前分区数 : ${rdd1.getNumPartitions}") println(rdd1.collect().mkString(",")) sc.stop() }
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· 字符编码:从基础到乱码解决
· SpringCloud带你走进微服务的世界