hdfs断电报错解决
一,/home/hadoop/tmp/dfs/name/current 目录下查看文件
二,1.stop hadoop所有的服务;
2.重新格式化namenode即可: hadoop根目录下: hadoop namenode -format 重新格式化完就好了
重新格式化完后要更改文件目录权限
hadoop fs -chmod -R 777 /tmp
三,hadoop配置挺麻烦的,总会出现各种奇葩问题,之前把物理机上的配置复制到虚拟机中就报错resourcemanager无法启动,后来把配置文件都删了重新敲了一遍,就好了,至今无解。还待慢慢研究。
hive 错误ERROR Unable to move file /tmp/root/hive.log.2019-08-02 to /tmp/root/hive.log.2019-08-02: java.nio.file.NoSuchFileException /tmp/root/hive.log.2019-08-02 -> /tmp/root/hive.log.2019-08-02
四,hadoop-daemons.sh start datanode 启动所有节点的datanode
hadoop-daemon.sh start datanode 启动单个节点的datanode
datanode down机 删除
方法1.进入tmp/dfs,修改VERSION文件即可,将nameNode里version文件夹里面的内容修改成和master一致的。
方法2.直接删除tmp/dfs,然后格式化hdfs即可(./hdfs namenode -format)重新在tmp目录下生成一个dfs文件
---------------------
site.xml文件中配置的 tmp目录下的dfs