Hadoop | 环境搭建(二)-3台Linux机器准备

Hadoop | 环境搭建(二)-3台Linux机器准备


克隆虚拟机

克隆前需要配置静态ip 详见vm16下ip配置(信息敏感,对外不可见,需要请留言)

  1. 克隆三台准备好的虚拟机
  2. 配置 ip 地址 、hostname 主机名 、hosts(3台机器操作类似 修改对应主机名 ip等即可)
 //ip
 路径:/etc/sysconfig/network-scripts/ifcfg-ens33
 配置:IPADDR="192.168.10.102"(修改)

 配置:
 //主机名
 路径:/etc/hostname
 配置:hadoop102(修改)
 //hosts
 配置机器时已配置,无特殊要求无需修改

在102上配置JDK Hadoop等

  1. 将jdk 1.8 64 hadoop 3.1.3 安装包等放在/opt/software文件夹下

  2. 解压到moudle文件夹下
    tar -zxvf /opt/software/jdk-8u251-linux-x64.tar.gz -C /opt/moudle/
    tar -zxvf hadoop-3.1.3.tar.gz -C /opt/moudle/

  3. 配置环境变量 之前配置在/etc/profile
    这个文件中一段代码会循环遍历/etc/profile.d中的所有.sh文件,所以我们可以在这个目录下新建一个我们自己的环境变量文件,不需要修改别人的

    ##路径
    cd /etc/profile.d
    vim my_env.sh
    ##文件内容
     #JAVA_HOME
     export JAVA_HOME=/opt/moudle/jdk1.8.0_251
     export PATH=$PATH:$JAVA_HOME/bin
    
     #HADOOP_HOME
     export HADOOP_HOME=/opt/moudle/hadoop-3.1.3
     export PATH=$PATH:$HADOOP_HOME/bin
     export PATH=$PATH:$HSDOOP_HOME/sbin                       
    
  4. source /etc/profile 刷新配置文件
    java -version hadoop version 验证是否安装成功

posted @ 2021-07-01 17:46  —清风碎心—  阅读(58)  评论(0编辑  收藏  举报