摘要: 转在doublexi: https://www.cnblogs.com/doublexi/p/15624795.html 在前面我们已经准备了三台服务器,并做好初始化,配置好jdk与免密登录等。并且已经安装好了hadoop集群。如果还没有配置好的,参考我前面两篇博客:Spark集群环境搭建——服务器 阅读全文
posted @ 2022-03-28 22:49 VeyronC 阅读(478) 评论(0) 推荐(0) 编辑
摘要: 转自doublexi: https://www.cnblogs.com/doublexi/p/15624246.html Spark其实是Hadoop生态圈的一部分,需要用到Hadoop的HDFS、YARN等组件。为了方便我们的使用,Spark官方已经为我们将Hadoop与scala组件集成到spa 阅读全文
posted @ 2022-03-28 22:48 VeyronC 阅读(151) 评论(0) 推荐(0) 编辑
摘要: 转自doublexi: https://www.cnblogs.com/doublexi/p/15623436.html Spark也是属于Hadoop生态圈的一部分,需要用到Hadoop框架里的HDFS存储和YARN调度,可以用Spark来替换MR做分布式计算引擎。接下来,讲解一下spark集群环 阅读全文
posted @ 2022-03-28 22:44 VeyronC 阅读(136) 评论(0) 推荐(0) 编辑