摘要: spark集群的启动过程: 1.启动Hadoop: ①初始化:hadoop namenode -format ②启动服务:start-dfs.sh + start-yarn.sh (或者直接start-all.sh) ③查看进程:jps 启动成功的话会显示6条进程,如下图所示: 2.启动spark: 阅读全文
posted @ 2017-08-28 17:35 Janine_S 阅读(3497) 评论(0) 推荐(0) 编辑