Hadoop 进程配置总结
HDFS:
NameNode:
core-site.xml
<property> <name>fs.defaultFS</name> <value>hdfs://主机名:8020</value> //指定了namenode的运行的主机 </property>
DataNodes:
slaves指定的
SecondaryNameNode
hdfs-site.xml
<property> <name>dfs.namenode.secondary.http-address</name> <value>主机名:50090</value> //指定了从节点的运行的主机名 </property>
Yarn
ResourceManager
yarn-site.xml
<property> <name>yarn.resourcemanager.hostname</name> <value>主机名 </value> </property>
NodeManagers
slaves指定的运行的主机名
MapReduce:
<property> <name>mapreduce.jobhistory.address</name> <value>主机名:10020</value> </property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>主机名 :19888</value>
</property>
$ sbin/stop-dfs.sh
$ sbin/stop-yarn.sh
$ sbin/mr-jobhistory-daemon.sh stop historyserver
各部分结束进程
伪分布式所有进程都在一个机器上,可以使用start-all.sh 启动(生产环境不使用)
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
[chris@hella-hadoop hadoop-2.5.0]$ jps 56626 SecondaryNameNode 55782 DataNode 56758 NameNode 56237 JobHistoryServer 56813 Jps 53263 ResourceManager 53615 NodeManager [chris@hella-hadoop hadoop-2.5.0]$
六个进程全部启动成功
Aimer,c'est partager