Hadoop 2.2.0的高可用性集群中遇到的一些问题(64位)
1:主节点的50070端口无法访问
是因为主节点的NameNode没有运行起来,使用start-all.sh 启动的话就会有这个问题,使用两个单独的脚本 start-dfs.sh 和 start-yarn.sh来启动的话就可以访问了
也可以使用启动NameNode的脚本来单独启动NameNode(hadoop-daemon
.sh --script hdfs start namenode
)
2:主节点的8088端口集群查看页面无法看到主节点的原因
是因为主节点的NodeManager没有运行起来.. 启动起来就可以了,启动脚本是yarn-daemon
.sh start nodemanager
3:从节点的DataNode运行不起来的解决方法(具体原因还不清楚,可能是namespaceID不一致,哪里看这个ID也不是很清楚)目前只提供解决办法
停止各节点的服务:stop-dfs.sh && stop-yarn.sh
删除/tmp /home/hadoop/dfs/data 或name(跟配置文件对应的namenode和datanode的目录) /home/hadoop/tmp 这三个目录下的数据
重启系统
格式化hdfs
启动服务:start-dfs.sh && start-yarn.sh 这时从节点的数据服务应该都正常启动起来了...