Hadoop | 环境搭建(二)-3台Linux机器准备
Hadoop | 环境搭建(二)-3台Linux机器准备
克隆虚拟机
克隆前需要配置静态ip 详见vm16下ip配置(信息敏感,对外不可见,需要请留言)
- 克隆三台准备好的虚拟机
- 配置 ip 地址 、hostname 主机名 、hosts(3台机器操作类似 修改对应主机名 ip等即可)
//ip
路径:/etc/sysconfig/network-scripts/ifcfg-ens33
配置:IPADDR="192.168.10.102"(修改)
配置:
//主机名
路径:/etc/hostname
配置:hadoop102(修改)
//hosts
配置机器时已配置,无特殊要求无需修改
在102上配置JDK Hadoop等
-
将jdk 1.8 64 hadoop 3.1.3 安装包等放在/opt/software文件夹下
-
解压到moudle文件夹下
tar -zxvf /opt/software/jdk-8u251-linux-x64.tar.gz -C /opt/moudle/
tar -zxvf hadoop-3.1.3.tar.gz -C /opt/moudle/
-
配置环境变量 之前配置在
/etc/profile
中
这个文件中一段代码会循环遍历/etc/profile.d
中的所有.sh
文件,所以我们可以在这个目录下新建一个我们自己的环境变量文件,不需要修改别人的##路径 cd /etc/profile.d vim my_env.sh ##文件内容 #JAVA_HOME export JAVA_HOME=/opt/moudle/jdk1.8.0_251 export PATH=$PATH:$JAVA_HOME/bin #HADOOP_HOME export HADOOP_HOME=/opt/moudle/hadoop-3.1.3 export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HSDOOP_HOME/sbin
-
source /etc/profile
刷新配置文件
java -version
hadoop version
验证是否安装成功