Fork me on GitHub

Hadoop(2):Hadoop伪分布式模式安装测试

以下操作在  Hadoop(1):Centos 7 安装 Hadoop 3.2.1  基础上操作。

一、配置集群

1、配置 HDFS

a)、配置 hadoop-end.sh

  # cd /opt/module/hadoop-3.2.1/    

  将 hadoop-env.sh 中的 JAVA_HOME 的值修改为当前JDK的安装目录

  获取当前 jdk 的安装路径

  # echo $JAVA_HOME   

 

   修改 hadoop-env.sh 

  # vim etc/hadoop/hadoop-env.sh   

  修改 JAVA_HOME 路径

export JAVA_HOME=/opt/module/jdk1.8.0_171

 

 b)、配置  core-site.xml

  # vim etc/hadoop/core-site.xml   

在 configuration 标签里面 插入 以下内容

<!-- 指定HDFS中NameNode的地址 -->
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://192.168.56.200:9000</value>
</property>

<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/module/hadoop-3.2.1/data/tmp</value>
</property>

 

 c)、配置  hdfs-site.xml

# vim etc/hadoop/hdfs-site.xml    

在 configuration 标签里面 插入 以下内容

<!-- 指定HDFS副本的数量 -->
<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>

2、配置YARN

a)、配置 yarn-site.xml

查看hadoop classpath 

# hadoop classpath   

将回显的内容记录下来

 在 configuration 标签里面 插入 以下内容

<!-- Reducer获取数据的方式 -->
<property>
     <name>yarn.nodemanager.aux-services</name>
     <value>mapreduce_shuffle</value>
</property>

<!-- 指定YARN的ResourceManager的地址 -->
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>192.168.56.200</value>
</property

<!-- value值 输入刚才返回的Hadoop classpath路径-->
<property>
    <name>yarn.application.classpath</name>
    <value>/opt/module/hadoop-3.2.1/etc/hadoop:/opt/module/hadoop-3.2.1/share/hadoop/common/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/common/*:/opt/module/hadoop-3.2.1/share/hadoop/hdfs:/opt/module/hadoop-3.2.1/share/hadoop/hdfs/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/hdfs/*:/opt/module/hadoop-3.2.1/share/hadoop/mapreduce/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/mapreduce/*:/opt/module/hadoop-3.2.1/share/hadoop/yarn:/opt/module/hadoop-3.2.1/share/hadoop/yarn/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/yarn/*</value>
</property>

 

3、配置 MapReduce

a)、配置:mapred-site.xml

在 configuration 标签里面 插入 以下内容

<!-- 指定MR运行在YARN上 -->
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

 

二、启动集群

格式化NameNode(第一次启动时格式化,以后就不要总格式化)

#  bin/hdfs namenode -format   

启动NameNode

# sbin/hadoop-daemon.sh start namenode   

启动DataNode

#  sbin/hadoop-daemon.sh start datanode   

查看是否启动成功

# jps  

web端查看HDFS文件系统

浏览器访问: http://192.168.56.200:9870/dfshealth.html#tab-overview

 HDFS 成功启动。

启动ResourceManager

# sbin/yarn-daemon.sh start resourcemanager   

启动NodeManager

# sbin/yarn-daemon.sh start nodemanager  

web端查看yarn

浏览器访问: http://192.168.56.200:8088/cluster

 YARN 启动成功。

三、测试  wordcount 案例

1、将 wcinput 文件夹上传至 hdfs 根目录

# hadoop fs -put wcinput /    

 浏览器查看 文件目录 可以看到新上传 wcinput 文件夹。

2、运行MapReduce程序

# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /wcinput /wcoutput   

执行完成,刷新浏览器 可以看到执行输出的 wcoutput 文件夹

 命令行查看结果

# hadoop fs -cat /wcoutput/*    

 至此Hadoop伪分布式模式安装完成 

posted @ 2020-11-04 19:56  Aiden郭祥跃  阅读(208)  评论(0编辑  收藏  举报
";