多次重新初始化hadoop namenode -format后,DataNode或NameNode没有启动

多次重新初始化hadoop namenode -format后,DataNode或NameNode没有启动

在搭建完hadoop集群后,需要对主节点进行初始化(格式化)

其本质是清理和做一些准备工作,因为此时的HDFS在物理上还是存在的。

而且主节点格式化操作只能进行一次。

当我们不小心多次初始化,会导致启动hadoop集群时,主节点DataNode或NameNode无法启动

[root@node01 hadoop]# jps
6628 SecondaryNameNode
7412 Jps
6901 ResourceManager
7066 NodeManager

解决方法如下:

在重新初始化(格式化)前,

  • 先在主节点上运行 stop-all.sh终止所有进程 (可以使用jps查看)

  • 删除配置文件core-site.xml 和hdfs-site.xml中指定目录下的文件

    查找方法:查看配置文件里面是如何写的

    image-20230405140150628

    示例:

    $hadoop_home = /opt/app/hadoop-2.7.7
    1. 首先找到指定目录

    查看hdfs-site.xml文件

    示例: $hadoop_home/etc/hadoop/hdfs-site.xml

<configuration>
.
.
.
<property>
<name>dfs.namenode.dir</name>
<value>file:/opt/app/hadoop-2.7.7/name</value>
</property>
<property>
<name>dfs.datanode.dir</name>
<value>file:/opt/app/hadoop-2.7.7/data</value>
</property>
.
.
.
</configuration>

查看core--site.xml

示例:$hadoop_home/etc/hadoop/core--site.xml

<configuration>
.
.
.
<property>
<name>dfs.tmp.dir</name>
<value>file:/opt/app/hadoop-2.7.7/tmp</value>
</property>
.
.
.
</configuration>
  1. cd /opt/app/hadoop-2.7.7去看有哪些内容

20230401180327

  1. 删除 dfs.namenode.dir和dfs.datanode.dir所指目录里的文件
  • rm -rf name

  • rm -rf data

  1. 删除logs日志文件和tmp缓存文件
  • rm -rf logs
  • rm -rf tmp
  1. 最后重新初始化(格式化) hadoop namenode - format

!!!注意:每个结点上都需要删除相应文件

废弃命令(不要执行):

cd /opt/app/hadoop-2.7.7
cat /etc/hadoop/hdfs-site.xml
rm -rf /opt/app/hadoop-2.7.7/data
rm -rf /opt/app/hadoop-2.7.7/name

posted @   Oraer  阅读(602)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· Vue3状态管理终极指南:Pinia保姆级教程

阅读目录(Content)

此页目录为空

点击右上角即可分享
微信分享提示