Hadoop集群扩展子节点
上次发了部署八节点hadoop集群的博客,本来想把master也做为一个datanode,后来感觉不太合适,最后决定还是扩展一个子节点吧。
首先是准备新的节点
- 安装jdkhttp://blog.csdn.net/fontthrone/article/details/77915256
- 配置sshhttp://blog.csdn.net/fontthrone/article/details/77916630
清除原来集群的文件
再扩展节点之后有几个文件需要清除,不然的话,无法将无法启动新的九节点集群,以我的2号节点为例,ssh登录子节点之后,直接删除文件夹再创建空文件夹即可
ssh ubuntu02
rm -rf hadoop-2.7.4/tmp
rm -rf hadoop-2.7.4/dfs/data
rm -rf hadoop-2.7.4/dfs/name
mkdir hadoop-2.7.4/dfs/name
mkdir hadoop-2.7.4/dfs/data
mkdir hadoop-2.7.4/tmp
exit
格式化namenode
bin/hdfs namenode -format
启动服务,查看集群信息
可用硬盘2.69T之巨,跑跑数据足够了