在master主节点机器上,/home/hadoop/hadoop安装文件夹下,输入bin/hadoop dfsadmin -report查看集群启动情况,发现datanode根本没有起起来,或者格式化所有节点的时候,根本不successful

首先检查各个xml配置文件是否正确写入,jdk环境变量是否写了,ssh是否通,也可能提示你core-site.xml文件里面有错误,xml文件里第一行不能是空行,如果是自己写的很有可能是最上面两行之间有空行,或者全角字符,这时就从master主机中把同样的文件用scp命令传到slave主机,覆盖掉原来的文件即可

以上操作都是在bin/stop-all.sh之下操作的,必须先停掉所有节点

删除所有tmp文件夹和logs文件夹,tmp文件就是core-site.xml文件里hadoop.tmp.dir所指定的文件夹,logs在/home/hadoop/hadoop安装文件夹 下,然后再重新格式化所有节点,start-all.sh

posted on 2012-01-06 20:10  shengxinge  阅读(1897)  评论(0编辑  收藏  举报