摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 HDFS 作为Hadoop生态系统在最底层,用于实现文件存储,提供海量数据存储,是MapReduce, Yarn, Hbase及Spark的基础; M 阅读全文
posted @ 2021-03-12 16:00 starrysky~ocean 阅读(77) 评论(0) 推荐(0) 编辑