【腾讯云】云产品限时秒杀,爆款1核2G云服务器,首年99元

hadoop环境搭建

hadoop环境搭建

本环境基于操作系统为centos 7.4 1708,官方镜像已经不提供下载,只有readme,查看readme找到镜像地址。hadoop采用的版本为2.7.4,下载地址。以下为环境部署步骤:

一、安装JDK

1.安装之前先检测

安装之前先检测是否自带的有java sdk,如果存在需要先进行卸载,否则会出现hadoop启动异常问题,查看命令如下:

rpm -qa java*

 2.安装jdk,执行如下命令:

yum install java-1.8.0-openjdk java-1.8.0-openjdk-devel -y

3.配置环境变量

执行如下命令修改配置文件:

vim /etc/profile

添加如下内容

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.232.b09-0.el7_7.x86_64
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

应用修改后的配置文件

source /etc/profile

测试环境变量是否设置成功,执行如下命令:

javac

查看现在运行的java的进程

jps

二、安装hadoop

1.获取hadoop安装包

执行如下命令获取hadoop获取hadoop文件:

wget  http://archive.apache.org/dist/hadoop/common/hadoop-2.7.4/hadoop-2.7.4.tar.gz

2.解压文件

tar -zxfv hadoop-2.7.4.tar.gz

3.移动解压文件到运行目录,这边暂时存放位置为/usr/local

4.配置配置文件

主要有四个,配置文件在解压后的文件夹下etc/hadoop/文件夹下,分别为:hadoop-env.sh,core-site.xml,hdfs-site.xml,mapred-env.sh

(1)hadoop-env.sh

将java环境变量替换为真实位置

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.232.b09-0.el7_7.x86_64

(2)core-site.xml

在configuration节点中添加如下属性:

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/hadoop</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>dfs.name.dir</name>
        <value>/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

(3).hdfs-site.xml

在configuration节点中添加如下属性:

<configuration>
<property>
<name>dfs.data.dir</name>
<value>/hadoop/data</value>
</property>
</configuration>

(4)mapred-env.sh

在configuration节点中添加如下属性:

<configuration>
<property>
<name>mapred.jb.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>

5.添加hadoop环境变量

执行如下命令修改配置文件:

vim /etc/profile

添加第一行,并修改第二行,结果如下如下内容

export HADOOP_HOME=/usr/local/hadoop-2.7.4/
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH

应用修改后的配置文件

source /etc/profile

测试环境变量是否设置成功,执行如下命令:

hadoop

 出现该结果表示环境变量设置成功。

6.启动hadoop

在hadoop目录sbin目录下执行start-all.sh启动hadoop,期间需要输入root用户密码,命令如下:

./start-all.sh

7.查看web界面

启动成功可以通过两个地址可以进行查看:

http://localhost:50070/

http://localhost:8088/

至此hadoop基础平台搭建完成,下一步会将Hive,HBase,ZooKeeper,Spark等环境的部署。

 

 

posted @ 2019-12-17 11:52  happenzh  阅读(219)  评论(0编辑  收藏  举报