摘要: RDD为什么会出现? MapReduce 执行迭代计算任务 多个 MapReduce 任务之间没有基于内存的数据共享方式, 只能通过磁盘来进行共享,这种方式明显比较低效 RDD执行迭代计算任务 在 Spark 中, 最终 Job3 从逻辑上的计算过程是: Job3 = (Job1.map).filt 阅读全文
posted @ 2021-01-08 22:33 MoooJL 阅读(99) 评论(0) 推荐(0) 编辑