Hadoop集群出现no data node to stop的解决方案

问题描述:

今天stop hadoop集群的时候出现no datanode to stop ,寻找解决方案,并不是网上资料所说的什么DFS Used 、Non DFS Used等于0 、所有的节点都是可用的。大概是因为格式化文件系统(命令:hadoop namenode -fromat )的时候,namenode产生的新的namespacelID与datanode所持有的namespaceID不一致导致的问题。

 

解决方案:

1.写一个脚本,利用ssh自动远程登录,删除所有集群中的dfs.data.dir(这个文件夹所在的地址是自己在配置的)文件夹下的/data/

2.重新格式化文件系统hadoop namenode -format

重启集群OK,错误消失。

 

posted @ 2015-04-29 14:18  ccsoft  阅读(437)  评论(0编辑  收藏  举报