Hadoop服役新数据节点

随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。

  1. 环境准备
    (1)在hadoop104主机上再克隆一台hadoop105主机
    (2)修改IP地址和主机名称
    sudo vim /etc/sysconfig/network 修改主机名称
    sudo vim /etc/sysconfig/network-scripts/ifcfg-eth0 修改Ip
    sudo vim /etc/udev/rules.d/70-persistent-net.rules 修改网卡
    删除eth0 修改eth1为0
    (3)新节点没有hadoop、jdk,选台机器拷贝至新节点 (拷贝前提试hosts有集群ip用户名、可以互通)
    rsync -av /opt/module/jdk1.8.0_192 hadoop105:/opt/module/
    rsync -av /opt/module/hadoop-2.7.2 hadoop105:/opt/module/
    sudo rsync -av /etc/profile hadoop105:/etc/profile
    source /etc/profile
    (4)删除原来HDFS文件系统留存的文件(/opt/module/hadoop-2.7.2/data和log)
    rm data logs -rf
    (5)(1)直接启动DataNode,即可关联到集群
    [hfx@hadoop105 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode
    [hfx@hadoop105 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager

       (6)如果数据不均衡,可以用命令实现集群的再平衡
          [hfx@hadoop102 sbin]$ ./start-balancer.sh
    

配置免密
ssh-keygen -t rsa 3个回车
cd .ssh/
ssh-copy-id hadoop102 yes

posted @ 2020-02-14 16:21  时光剑客  阅读(215)  评论(0编辑  收藏  举报