【第2期】如何将NameNode和SecondaryNameNode分开不同节点
一、当前情况
根据【第1期】教程的部署,我们已经可以使用Docker启动1台Master主机和3台Slave主机。但很快就可以发现,启动hadoop后,NameNode进行和SecondaryNameNode进程都存在于Master主机上,并无法实现备机功能。也就是说,如果Master主机宕掉了,实际上整个集群就完了。因此,将NameNode和SecondaryNameNode进程分开到不同的节点主机上是有必要的。
Hadoop-Master主机下查看进程
Hadoop-Slave1主机下查看进程
以下我们配置将SecondaryNameNode进程运行到Slave1主机上
二、配置Hadoop(使用hadoop用户)
1.1 关闭hadoop
su hadoop sh /opt/hadoop/sbin/stop-all.sh
1.2 修改hdfs-site.xml
在配置文件hdfs-site.xml新增属性配置
vi /opt/hadoop/etc/hadoop/hdfs-site.xml ------- 文件内容 -------
<property>
<name>dfs.http.address</name>
<value>hadoop-master.richardchan.nom:50070</value>
<description>
The address and the base port where the dfs namenode web ui will listen on.
If the port is 0 then the server will start on a free port.
</description>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop-slave1.richardchan.nom:50090</value>
</property>
1.3 修改core-site.xml
在配置文件core-site.xml新增属性配置
vi /opt/hadoop/etc/hadoop/core-site.xml ------ 文件内容 ------ <property> <name>fs.checkpoint.period</name> <value>3600</value> <description>The number of seconds between two periodic checkpoints. </description> </property> <property> <name>fs.checkpoint.size</name> <value>67108864</value> </property>
三、使用测试
3.1 启动hadoop
sh /opt/hadoop/sbin/start-all.sh
3.2 查看进程
Master主机
Slave1主机
我是【Richard在菩提树下】
如果,您认为阅读这篇博文让您有些收获,不妨点击一下右下角的【推荐】。
如果,您希望更容易地发现我的新博文,不妨点击一下左下角的【关注我】。
如果,您对我的博文所讲述的内容有兴趣,请继续关注我后续的博文。
本文版权归作者和博客园共有,欢迎转载,但未经作业同意必须保留此段声明,且在文章页面明显位置给出原文链接,否则作者将保留追究法律责任的权利。