Spark——需要HADOOP来运行SPARK吗?
摘要:
前言 Spark,是分布式计算平台,是一个用scala语言编写的计算框架,基于内存的快速、通用、可扩展的大数据分析引擎。 Hadoop,是分布式管理、存储、计算的生态系统;包括HDFS(存储)、MapReduce(计算)、Yarn(资源调度)。 Hadoop和Apache Spark都是当今蓬勃发展 阅读全文
posted @ 2020-08-05 15:37 曹伟雄 阅读(8669) 评论(0) 推荐(0) 编辑