摘要: Spark RDD深度解析-RDD计算流程 摘要 RDD(Resilient Distributed Datasets)是Spark的核心数据结构,所有数据计算操作均基于该结构进行,包括Spark sql 、Spark Streaming。理解RDD有助于了解分布式计算引擎的基本架构,更好地使用Sp 阅读全文
posted @ 2018-09-07 14:19 guang_blog 阅读(4841) 评论(6) 推荐(1) 编辑