Hadoop 2.2.0的高可用性集群中遇到的一些问题(64位)

1:主节点的50070端口无法访问

是因为主节点的NameNode没有运行起来,使用start-all.sh 启动的话就会有这个问题,使用两个单独的脚本 start-dfs.sh 和 start-yarn.sh来启动的话就可以访问了

也可以使用启动NameNode的脚本来单独启动NameNode(hadoop-daemon.sh  --script hdfs start namenode)

 

2:主节点的8088端口集群查看页面无法看到主节点的原因

是因为主节点的NodeManager没有运行起来.. 启动起来就可以了,启动脚本是yarn-daemon.sh start nodemanager

 

3:从节点的DataNode运行不起来的解决方法(具体原因还不清楚,可能是namespaceID不一致,哪里看这个ID也不是很清楚)目前只提供解决办法

停止各节点的服务:stop-dfs.sh && stop-yarn.sh

删除/tmp  /home/hadoop/dfs/data 或name(跟配置文件对应的namenode和datanode的目录)  /home/hadoop/tmp   这三个目录下的数据

重启系统

格式化hdfs 

启动服务:start-dfs.sh && start-yarn.sh  这时从节点的数据服务应该都正常启动起来了...

 

posted @ 2014-03-05 10:03  ..空白  阅读(473)  评论(0编辑  收藏  举报