逐一启动(实际生产环境中的启动方式)
* sbin/hadoop-daemon.sh start|stop namenode|datanode|journalnode
* sbin/yarn-daemon.sh start|stop resourcemanager|nodemanager
分别启动
* start-dfs.sh
* start-yarn.sh
一起启动
* start-all.sh
start-dfs.sh脚本:
* (1) 通过命令bin/hdfs getconf –namenodes查看namenode在那些节点上
* (2) 通过ssh方式登录到远程主机,启动hadoop-deamons.sh脚本
* (3) hadoop-deamon.sh脚本启动slaves.sh脚本
* (4) slaves.sh脚本启动hadoop-deamon.sh脚本,再逐一启动
start-all.sh脚本:
* start-all.sh实际上是调用sbin/start-dfs.sh脚本和sbin/start-yarn.sh脚本
三种启动方式的关系
* start-all.sh其实调用start-dfs.sh和start-yarn.sh
* start-dfs.sh调用hadoop-deamon.sh
* start-yarn.sh调用yarn-deamon.sh