摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 Hadoop:Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的。不是一个工具,也不是一种技术,是一种技术的合称HDF 阅读全文
posted @ 2021-03-12 15:56 写那么快干嘛啊? 阅读(147) 评论(0) 推荐(0) 编辑