Hadoop 进程配置总结

HDFS:

     NameNode:

core-site.xml 
<property> <name>fs.defaultFS</name> <value>hdfs://主机名:8020</value> //指定了namenode的运行的主机 </property>

   DataNodes:

       slaves指定的

  SecondaryNameNode

hdfs-site.xml
<property> <name>dfs.namenode.secondary.http-address</name> <value>主机名:50090</value> //指定了从节点的运行的主机名 </property>

Yarn

   ResourceManager

yarn-site.xml   
<property> <name>yarn.resourcemanager.hostname</name> <value>主机名 </value> </property>

  NodeManagers

  slaves指定的运行的主机名

 MapReduce:

 

<property>
        <name>mapreduce.jobhistory.address</name>
        <value>主机名:10020</value>
 </property>

 <property>
      <name>mapreduce.jobhistory.webapp.address</name>
      <value>主机名 :19888</value>
 </property>

 

 

  $ sbin/stop-dfs.sh

  $ sbin/stop-yarn.sh

 

  $ sbin/mr-jobhistory-daemon.sh  stop historyserver

  各部分结束进程

  伪分布式所有进程都在一个机器上,可以使用start-all.sh 启动(生产环境不使用)

 This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh

 

[chris@hella-hadoop hadoop-2.5.0]$ jps
56626 SecondaryNameNode
55782 DataNode
56758 NameNode
56237 JobHistoryServer
56813 Jps
53263 ResourceManager
53615 NodeManager
[chris@hella-hadoop hadoop-2.5.0]$ 

六个进程全部启动成功

    

posted @ 2019-04-19 15:47  Chris,Cai  阅读(233)  评论(0编辑  收藏  举报