摘要: 1.Spark是什么? 定义:Apache Spark是用于大规模数据处理的统一分析引擎。 RDD是一种分布式内存抽象,其使得程序员能够在大规模集群中做内存运算,并且有一定的容错方式。而这也是整个Spark的核心数据结构,Spark整个平台都围绕着RDD进行 统一分析引擎?spark是一款分布式内存 阅读全文
posted @ 2022-06-29 09:28 修心的博客 阅读(369) 评论(0) 推荐(0) 编辑