hadoop~搭建HA集群之后不能自动切换namenode
hadoop-daemon.sh stop namenode
或者直接kill掉该节点namenode的对应进程也可。
但是通过hdfs haadmin -getServiceState master1 查看,发现standby的namenode并没有自动切换成active,直到我把之前kill掉的namenode手动启动才会切换,但是这样就达不到高可用的目的啊。
解决方法一: 将故障时登录NameNode的方式从sshfence变为shell(/bin/true)
在网上找了好久才发现原因,原来是在hdfs-site.xml通过参数dfs.ha.fencing.methods来实现,出现故障时通过哪种方式登录到另一个namenode上进行接管工作。
如果采用默认的值sshfence的话,设置集群就无法自动切换。log信息的是无法连接到standby的amenode。
<property> <name>dfs.ha.fencing.methods</name> <value>shell(/bin/true)</value> </property>
修改成上面的值后,问题解决,active的namenode被停掉后秒切到standby的namenode。
解决方法二:安装包含fuster程序的软件包Psmisc
查看日志:${HADOOP_HOME}/logs/hadoop-hadoop-zkfc-hadoop02.log ,发现出现连接拒绝报错,如图所示:
这是因为没有 fuster 程序,导致无法进行 fence,根据官网上的配置,是在 hdfs-site.xml 中配置过相关配置:
<property> <name>dfs.ha.fencing.methods</name> <value>sshfence</value> </property>
解决方法: 安装包含fuster程序的软件包psmisc(每个机器上都要安装)
yum -y install psmisc
前提:确保使用sshfence隔离机制时需要ssh免登陆的private-key-files的地址正确。
<property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/home/hadoop/.ssh/id_rsa</value> </property>
本文来自博客园,作者:业余砖家,转载请注明原文链接:https://www.cnblogs.com/yeyuzhuanjia/p/18570501