摘要: 1、分区介绍 Spark目前支持Hash分区和Range分区,和用户自定义分区。Hash分区为当前的默认分区。分区器直接决定了RDD中分区的个数、RDD中每条数据经过Shuffle后进入哪个分区和Reduce的个数。说明:只有Key-Value类型的RDD才有分区器,非Key-Value类型的RDD 阅读全文
posted @ 2022-06-10 09:36 晓枫的春天 阅读(75) 评论(0) 推荐(0) 编辑