摘要: 首先用scala语言编辑Spark程序,通过SparkContext创建RDD 点击源码,发现地层创建了MapPartitionsRDD对象,描述信息为:通过第一个传入的函数,对这个RDD中的所有元素做运算,之后扁平结果集,返回一个新的RDD。 其中sc.clean(f)主要是做闭包检测。如果传入参 阅读全文
posted @ 2020-05-09 17:06 迷离的老狗 阅读(558) 评论(0) 推荐(0) 编辑