hadoop 04 一 HA高可用配置
HA高可用配置
一、简述
-------------------
high availability,高可用.
两个名称节点,一个active(激活态),一个是standby(slave待命),slave节点维护足够多状态以便于容灾。
和客户端交互的active节点,standby不交互.
两个节点都和JN守护进程构成组的进行通信。
数据节点配置两个名称节点,分别报告各自的信息。
同一时刻只能有一个激活态名称节点。
脑裂:两个节点都是激活态。
为防止脑裂,JNs只允许同一时刻只有一个节点向其写数据。容灾发生时,成为active节点的namenode接管
向jn的写入工作。
二、硬件资源
--------------
名称节点: 硬件配置相同。 JN节点 : 轻量级进程,至少3个节点,允许挂掉的节点数 (n - 1) / 2. 不需要再运行辅助名称节点。
三、配置细节
---------------
0.centos001和centos006具有完全一致的配置,尤其是.ssh(免密登陆) 1.配置nameservice [hdfs-site.xml] <property> <name>dfs.nameservices</name> <value>mycluster</value> </property> 2.dfs.ha.namenodes.[nameservice ID] [hdfs-site.xml] <!-- myucluster下的名称节点两个id --> <property> <name>dfs.ha.namenodes.mycluster</name> <value>nn1,nn2</value> </property> 3.dfs.namenode.rpc-address.[nameservice ID].[name node ID] [hdfs-site.xml] 配置每个nn的rpc地址。 <property> <name>dfs.namenode.rpc-address.mycluster.nn1</name> <value>centos001:8020</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn2</name> <value>centos006:8020</value> </property> 4.dfs.namenode.http-address.[nameservice ID].[name node ID] 配置webui端口 [hdfs-site.xml] <property> <name>dfs.namenode.http-address.mycluster.nn1</name> <value>centos001:50070</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn2</name> <value>centos006:50070</value> </property> 5.dfs.namenode.shared.edits.dir 名称节点共享编辑目录. [hdfs-site.xml] <property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://centos002:8485;centos003:8485;centos004:8485/mycluster</value> </property> 6.dfs.client.failover.proxy.provider.[nameservice ID] java类,client使用它判断哪个节点是激活态。 [hdfs-site.xml] <property> <name>dfs.client.failover.proxy.provider.mycluster</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property> 7.dfs.ha.fencing.methods 脚本列表或者java类,在容灾保护激活态的nn. [hdfs-site.xml]
<property>
<name>dfs.ha.fencing.methods</name>
<value>
sshfence
shell(/bin/true)
</value>
</property>
<property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/root/.ssh/id_rsa</value> </property> 8.fs.defaultFS 配置hdfs文件系统名称服务。 [core-site.xml] <property> <name>fs.defaultFS</name> <value>hdfs://mycluster</value> </property> 9.dfs.journalnode.edits.dir 配置JN存放edit的本地路径。 [hdfs-site.xml] <property> <name>dfs.journalnode.edits.dir</name> <value>/data/journal</value> </property>
四、部署细节
----------------
1.在jn节点分别启动jn进程 $>hadoop-daemon.sh start journalnode 2.启动jn之后,在两个NN之间进行disk元数据同步 a)如果是全新集群,先format文件系统,只需要在一个nn上执行。 1、 [centos001] $>hadoop namenode -format //格式化文件系统
$>hadoop-daemon.sh start namenode /启动名称节点
2、然后在另一台nn上执行命令,将NameNode元数据目录的内容复制到另一个未格式化的NameNode
$>hdfs namenode -bootstrapStandby
3、启动所有节点
$>start-all.sh
b)如果将非HA集群转换成HA集群,复制原NN的metadata到另一个nn. 1.步骤一 [cnetos001] $>scp -r /home/centos/hadoop/dfs centos@centos006:/home/centos/hadoop/ 2.步骤二 在新的nn(未格式化的nn)上运行一下命令,实现待命状态引导。 [centos006] $>hdfs namenode -bootstrapStandby //需要s201为启动状态,提示是否格式化,选择N. 3)在一个NN上执行以下命令,完成edit日志到jn节点的传输。 $>hdfs namenode -initializeSharedEdits #查看centos002,centos003、centos004是否有edit数据.
4)启动所有节点. [centos001]
$>hadoop-daemon.sh start namenode //启动名称节点
$>hadoop-daemons.sh start datanode //启动所有数据节点
[centos006]
$>hadoop-daemon.sh start namenode //启动名称节点
五、HA管理
-----------------
默认名称节点都为待命态,需要手动激活
$>hdfs haadmin -transitionToActive nn1 //切成激活态 $>hdfs haadmin -transitionToStandby nn1 //切成待命态 $>hdfs haadmin -transitionToActive --forceactive nn2//强行激活 $>hdfs haadmin -failover nn1 nn2 //模拟容灾演示,从nn1切换到nn2