hadoop多次格式化后,导致datanode启动不了,怎么办?(伪分布式)
根据当初 hadoop 安装目录下 conf 目录的 core-site.xml 的设置,找到该目录:
![](http://images0.cnblogs.com/blog/524610/201405/081343005102661.png)
进入该目录
![](http://images0.cnblogs.com/blog/524610/201405/081343011048775.png)
在 data 和 name 文件夹下均有 current 文件夹 ,和 current 文件夹下有 VERSION 文件
![](http://images0.cnblogs.com/blog/524610/201405/081343017459903.png)
![](http://images0.cnblogs.com/blog/524610/201405/081343026208804.png)
主要要做的是使这两个文件中的 namespaceID 相同
![](http://images0.cnblogs.com/blog/524610/201405/081343044631336.jpg)
![](http://images0.cnblogs.com/blog/524610/201405/081343076041894.png)
接下来就是修改 data 里的该文件文件:
进入到该目录下:
![](http://images0.cnblogs.com/blog/524610/201405/081343083078509.png)
编辑文件:
![](http://images0.cnblogs.com/blog/524610/201405/081343089632110.png)
![](http://images0.cnblogs.com/blog/524610/201405/081343094639196.png)
保存,退出
重启电脑,启动 hadoop 守护进程
![](http://images0.cnblogs.com/blog/524610/201405/081343134016398.png)
到此成功恢复!!!
一分耕耘一分收获