hadoop~搭建HA集群之后不能自动切换namenode

在搭好HA集群之后,想测试一下集群的高可用性,于是先把active的namenode给停掉:

hadoop-daemon.sh stop namenode

或者直接kill掉该节点namenode的对应进程也可。

但是通过hdfs haadmin -getServiceState master1 查看,发现standby的namenode并没有自动切换成active,直到我把之前kill掉的namenode手动启动才会切换,但是这样就达不到高可用的目的啊。

解决方法一: 将故障时登录NameNode的方式从sshfence变为shell(/bin/true)

在网上找了好久才发现原因,原来是在hdfs-site.xml通过参数dfs.ha.fencing.methods来实现,出现故障时通过哪种方式登录到另一个namenode上进行接管工作。

如果采用默认的值sshfence的话,设置集群就无法自动切换。log信息的是无法连接到standby的amenode。

  <property>
          <name>dfs.ha.fencing.methods</name>
          <value>shell(/bin/true)</value>
  </property>

修改成上面的值后,问题解决,active的namenode被停掉后秒切到standby的namenode。

 

解决方法二:安装包含fuster程序的软件包Psmisc

查看日志:${HADOOP_HOME}/logs/hadoop-hadoop-zkfc-hadoop02.log ,发现出现连接拒绝报错,如图所示:

这是因为没有 fuster 程序,导致无法进行 fence,根据官网上的配置,是在 hdfs-site.xml 中配置过相关配置: 

  <property>
          <name>dfs.ha.fencing.methods</name>
          <value>sshfence</value>
  </property>

解决方法:  安装包含fuster程序的软件包psmisc(每个机器上都要安装)

yum -y install psmisc

 

前提:确保使用sshfence隔离机制时需要ssh免登陆的private-key-files的地址正确。

    <property>
        <name>dfs.ha.fencing.ssh.private-key-files</name>
        <value>/home/hadoop/.ssh/id_rsa</value>
    </property>

 

 

posted @ 2024-11-26 16:49  业余砖家  阅读(29)  评论(0编辑  收藏  举报