hadoop 集群开启之后datanode没有启动问题

执行了 start-dfs.sh 或者start-all.sh之后发现所有的datanode都没有启动。

网上查阅了一些资料发现,是因为之前多次格式化namenode导致的namenode与datanode之间的不一致。

所以需要删除之前配置的data目录(即为dfs.data.dir所创建的文件夹),然后将temp文件夹与logs文件夹删除,

(有的人说要将slave节点上的core-site.xml文件全部替换,我这里没有尝试。)

重新格式化namenode;

启动你的start-dfs.sh 发现已经全部启动。

posted @ 2018-01-24 16:57  蚂小蚁  阅读(5187)  评论(0编辑  收藏  举报