Hadoop运行环境搭建

目录:

1. 准备虚拟机(最小化安装)

2. 配置一台纯净版模板机
-- 固定ip地址、修改主机名
-- 用xshell工具连接模板机
-- 通过yum安装方式安装必要的软件
-- 关防火墙
-- 修改hosts文件
-- 创建普通户用(atguigu)并且提升它能拥有root权限
-- 在Linux的/opt目录下创建 software 和 module
-- 将software 和 module 目录的所有者和所属组修改为 atguigu


3. 准备hadoop102 机器(通过克隆模板机的方式创建)
-- 修改IP
-- 修改主机名

4. 在hadoop102上安装jdk
-- 将jdk的安装包上传到 /opt/software 下
-- 将jdk安装到 /opt/module 下
-- 配置jdk的环境变量
-- 在/etc/profile.d 目录下创建自定的配置文件 my_env.sh
-- 在my_env.sh写入以下内容
#声明JAVA_HOME变量
JAVA_HOME=/opt/module/jdk1.8.0_212
#将JAVA_HOME变量追加到PATH变量上
PATH=$PATH:$JAVA_HOME/bin
#提升JAVA_HOME变量为系统变量
export JAVA_HOME PATH

5. 在hadoop102上安装hadoop
-- 将hadoop的安装包上传到 /opt/software 下
-- 将hadoop安装到 /opt/module 下
-- 配置hadoop的环境变量
-- 在my_env.sh写入以下内容
#声明JAVA_HOME变量
JAVA_HOME=/opt/module/jdk1.8.0_212

#声明HADOOP_HOME变量
HADOOP_HOME=/opt/module/hadoop-3.1.3

#将JAVA_HOME变量追加到PATH变量上
#将HADOOP_HOME/bin 、HADOOP_HOME/sbin 追加到PATH变量上
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

#提升JAVA_HOME、PATH、HADOOP_HOME 变量为系统变量,
export JAVA_HOME PATH HADOOP_HOME

具体操作过程:

1.最小化安装一个虚拟机

这一步比较简单,按照下面步骤操作即可。

 

配置完成之后的一些系统简单配置

 

 

2.配置一台纯净版模板机

 1)模板虚拟机必要环境

在终端运行下面命令,安装必要的环境。

[root@hadoop100 ~]# yum install -y epel-release
[root@hadoop100 ~]# yum install -y psmisc nc net-tools rsync vim lrzsz ntp libzstd openssl-static tree iotop git

 

 2)关闭防火墙,关闭防火墙开机自启。

[root@hadoop100 ~]# systemctl stop firewalld
[root@hadoop100 ~]# systemctl disable firewalld

 

3)创建普通用户,修改用户密码。

[root@hadoop100 ~]# useradd user1
[root@hadoop100 ~]# passwd 123456

 

4)给普通用户root权限,方便之后加sudo使用root的权限。

[root@hadoop100 ~]# vim /etc/sudoers

修改/etc/sudoers文件,找到下面一行(91行),在root下面添加一行,如下所示:

## Allow root to run any commands anywhere
root    ALL=(ALL)     ALL
user1   ALL=(ALL)     NOPASSWD:ALL

 

5)在/opt目录下创建文件夹,并修改所属主和所著组。

(1)在/opt目录下创建module、software文件夹

[root@hadoop100 ~]# mkdir /opt/module
[root@hadoop100 ~]# mkdir /opt/software

 

(2)修改module、software文件夹的所有者和所属组均为atguigu用户

[root@hadoop100 ~]# chown user1:user1 /opt/module 
[root@hadoop100 ~]# chown user1:user1 /opt/software

 

6)重启虚拟机

[root@hadoop100 ~]# reboot

 

 

3.用克隆的方式创建另一台机器

以下是克隆过程:

 

 

 克隆新的系统后需要做两件事,一是修改主机名,二是修改IP地址。

(1)修改克隆虚拟机的静态IP

保证Linux系统ifcfg-ens33文件中IP地址、虚拟网络编辑器地址和Windows系统VM8网络IP地址相同。

[root@hadoop100 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

 

改成

DEVICE=ens33
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=static
NAME="ens33"
IPADDR=192.168.1.102
PREFIX=24
GATEWAY=192.168.1.2
DNS1=192.168.1.2

 

要保证Linux系统和Windows系统的IP地址相同,所以上面的192.168.1.102和192.168.1.2里面的1可能不是填1,这个要看自己Windows系统和虚拟机的地址填多少。

比如点击VMware上方的编辑,查看虚拟网络编辑器,

 

上面显示IP为192.168.217.0,所以在设置Linux系统IP的时候就需要设置192.168.217.102,最后这个数不固定。

(2)修改克隆虚拟机的主机名,映射文件。

修改主机名称

[root@hadoop100 ~]# vim /etc/hostname
hadoop2

 

配置linux克隆机主机名称映射hosts文件

[root@hadoop100 ~]# vim /etc/hosts

 

添加如下内容

192.168.1.100 hadoop2

 

之后重启

[root@hadoop100 ~]# reboot

 

修改Windows的映射文件

在C:\Windows\System32\drivers\etc\hosts

添加

192.168.1.100 hadoop2

 

 

 

4.安装JDK、Hadoop。

将jdk和hadoop的tar包导入到opt目录的software下,解压到opt目录的module下,这两个文件夹都是之前创建的。

[user1@hadoop2 software]$ tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/

配置jdk的环境

(1)新建/etc/profile.d/my_env.sh文件

[user1@hadoop2 ~]$ sudo vim /etc/profile.d/my_env.sh

 

添加内容

#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin

 

(2)保存后退出   :wq!

(3)source一下/etc/profile文件,让新的环境变量PATH生效

[user1@hadoop2 ~]$ source /etc/profile

 

同样解压hadoop

[user1@hadoop2 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

 

配置hadoop的环境变量

sudo vim /etc/profile.d/my_env.sh

 

在末尾加下面内容

#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

(3)保存后退出

(4)让修改后的文件生效

[user1@hadoop2 hadoop-3.1.3]$ source /etc/profile

 

配置好了之后可以重启一下

[user1@hadoop2 hadoop-3.1.3]$ sudo reboot

 

 

 

 

posted @ 2022-07-08 22:36  手下留情  阅读(140)  评论(0编辑  收藏  举报