克隆
| 克隆当前的虚拟机 |
| |
| 修改3台虚拟机的ip地址和主机名 |
| vim /etc/sysconfig/network-scripts/ifcfg-ens33 |
| |
| 将IPADDR修改为192.168.200.225 |
| |
| 重新启动网络服务使其生效 |
| systemctl restart network |
配置主机名的映射
| vi /etc/hostname |
| 将克隆的node1修改为new |
| |
| vi /etc/hosts |
| 增加 |
| 192.168.200.226 |
| |
| 重启reboot |
ssh的免密登录
| cd /root/.ssh |
| ssh-keygen -t rsa |
| 敲三个回车 |
| 执行命令ssh-copy-id node1 |
| |
| 执行命令ssh-copy-id node1 |
| [root@new hadoop-2.8.5]# pwd |
| /opt/app/hadoop-2.8.5 |
| [root@new hadoop-2.8.5]# rm -rf metaData/ |
在hdfs的namenode所在结点的Hadoop的安装目录的etc/hadoop目录下创建一个dfs.hosts文件 填写dfs需要的服役的节点信息
| [root@node1 hadoop]# touch dfs.hosts |
| [root@node1 hadoop]# vi dfs.hosts |
| node1 |
| new |
在namenode所在节点的hdfs-site.xml文件中,增加一个配置项dfs.hosts值指向我们刚刚创建的dfs.hosts文件
| [root@node1 hadoop]# vi hdfs-site.xml |
| |
| <property> |
| <name>dfs.hosts</name> |
| <value>/opt/app/hadoop-2.8.5/etc/hadoop/dfs.hosts</value> |
| </property> |
刷新节点状态信息
在namenode结点
执行hdfs dfsadmin -refreshNodes
刷新数据节点状态信息
开启datanode节点
在新节点
通过hadoop-daemon.sh start datanode
开启dn
增加服役节点成功

【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?