CM记录-Hadoop运维管理

1.自动化运维--cloudera manager

2.手动运维

a.启动./start.all.sh,停止./stop-all.sh

b.hdfs启动/停止:./start-dfs.sh   ./stop-dfs.sh

c.启动单个:./hadoop-daemon.sh start/stop namenode

                    ./hadoop-daemon.sh start/stop datanode/secondarynamenode/nodemanager

d.增加DataNode

1)修改slaves文件:

2)./hadoop-daemon.sh start datanode

3)hadoop dfsadmin -refreshNodes

e.卸载DataNode:1).stop datanode

                              2)修改dfs.hosts和dfs.hosts.exclude  ---添加地址

                              3)hadoop dfsadmin -refreshNodes   ---迁移数据

                              4)去掉该节点地址,再次hadoop dfsadmin -refreshNodes

f.增加NodeManager:修改slaves文件,直接启动

g.卸载NodeManager:直接停止即可

h.利用SecondaryNameNode恢复NameNode

1)确保新NameNode ${dfs.name.dir}目录存在,并移除其内容

2)把SecondaryNameNode节点中${fs.checkpoint.dir}的所有内容复制到新的NameNode节点的${fs.checkpoint.dir}目录中。

3)在新NameNode上执行命令:hadoop namenode -importCheckpoint,该步会从${fs.checkpoint.dir}中恢复${dfs.name.dfs},并启动NameNode。

4)检查文件完整性,执行命令:hadoop fsck  /

5)停止NameNode。

6)删除新NameNode  ${fs.checkpoint.dir}目录下的文件

7)正式启动NameNode,恢复工作完成

i.查看日志

j.清理临时文件

k.定期执行数据均衡脚本

posted @ 2017-10-17 23:25  信方  阅读(357)  评论(0编辑  收藏  举报