Hadoop集群扩展子节点

上次发了部署八节点hadoop集群的博客,本来想把master也做为一个datanode,后来感觉不太合适,最后决定还是扩展一个子节点吧。

首先是准备新的节点

  1. 安装jdkhttp://blog.csdn.net/fontthrone/article/details/77915256
  2. 配置sshhttp://blog.csdn.net/fontthrone/article/details/77916630

清除原来集群的文件

再扩展节点之后有几个文件需要清除,不然的话,无法将无法启动新的九节点集群,以我的2号节点为例,ssh登录子节点之后,直接删除文件夹再创建空文件夹即可

ssh ubuntu02
rm -rf hadoop-2.7.4/tmp
rm -rf hadoop-2.7.4/dfs/data
rm -rf hadoop-2.7.4/dfs/name
mkdir hadoop-2.7.4/dfs/name
mkdir hadoop-2.7.4/dfs/data
mkdir hadoop-2.7.4/tmp
exit

格式化namenode

bin/hdfs namenode -format

启动服务,查看集群信息

这里写图片描述

可用硬盘2.69T之巨,跑跑数据足够了

posted @ 2017-09-22 19:40  FontTian  阅读(172)  评论(0编辑  收藏  举报