2018年2月26日

摘要: 文是超简单的spark yarn配置教程: yarn是hadoop的一个子项目,目的是用于管理分布式计算资源,在yarn上面搭建spark集群需要配置好hadoop和spark。我在搭建集群的时候有3台虚拟机,都是centos系统的。下面就开始一步一步地进行集群搭建。 一、配置hosts文件 hos 阅读全文
posted @ 2018-02-26 17:07 skyer1992 阅读(11523) 评论(0) 推荐(2) 编辑

导航