01 个人电脑上,快速搭建hadoop环境

目的

本文档介绍了如何设置和配置单节点Hadoop安装,以便您可以使用Hadoop MapReduce和Hadoop分布式文件系统(HDFS)快速执行简单的操作。

先决条件

支持平台

  • 支持GNU / Linux作为开发和生产平台。Hadoop在具有2000个节点的GNU / Linux集群上得到了证明。
  • Windows也是受支持的平台,但是以下步骤仅适用于Linux。要在Windows上设置Hadoop,请参见wiki页面

必备软件

Linux所需的软件包括:

  1. 必须安装Java™。HadoopJavaVersions中描述了推荐的Java版本。
  2. 必须安装ssh且sshd必须正在运行才能使用管理远程Hadoop守护程序的Hadoop脚本。

安装软件

如果您的群集没有必需的软件,则需要安装它。

例如在Ubuntu Linux上:

  $ sudo apt-get install ssh
  $ sudo apt-get install rsync

下载

要获得Hadoop发行版,请从Apache下载镜像之一下载最新的稳定版本。

准备启动Hadoop集群

解压缩下载的Hadoop发行版。在发行版中,编辑文件etc/hadoop/hadoop-env.sh以定义一些参数,如下所示:

  #设置为Java安装的根目录
  export JAVA_HOME = /usr/java/latest

  #假设您的安装目录为/usr/local/hadoop
  export HADOOP_PREFIX = /usr /local/hadoop

尝试以下命令:

  $ bin/hadoop

这将显示hadoop脚本的用法文档。

现在,您可以以三种支持的模式之一启动Hadoop集群:

独立运行

默认情况下,Hadoop被配置为以非分布式模式作为单个Java进程运行。这对于调试很有用。

下面的示例复制解压缩的conf目录以用作输入,然后查找并显示给定正则表达式的每个匹配项。输出被写入给定的输出目录。

  $ mkdir input
  $ cp etc/hadoop/*.xml input
  $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep input output 'dfs[a-z.]+'
  $ cat output/*

伪分布式操作

Hadoop也可以以伪分布式模式在单节点上运行,其中每个Hadoop守护程序都在单独的Java进程中运行。

配置

使用以下内容:

etc/hadoop/core-site.xml:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

etc/hadoop/hdfs-site.xml:

<configuration>
    <property>
        <name> dfs.replication </ name>
        <value> 1 </ value>
    </ property>
</ configuration>

设置无密码SSH

现在检查您是否可以在不使用密码的情况下SSH到本地主机:

  $ ssh localhost

如果没有密码就无法SSH到本地主机,请执行以下命令:

  $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

执行

以下说明是在本地运行MapReduce作业。如果要在YARN上执行作业,请参阅YARN在单节点上

  1. 格式化文件系统:

      $ bin/hdfs namenode -format
    
  2. 启动NameNode守护程序和DataNode守护程序:

      $ sbin/start-dfs.sh
    

    hadoop守护程序日志输出将写入$ HADOOP_LOG_DIR目录(默认为$ HADOOP_HOME / logs)。

  3. 浏览Web界面以查找NameNode;默认情况下,它在以下位置可用:

    • NameNode- http://localhost:50070/
  4. 设置执行MapReduce作业所需的HDFS目录:

      $ bin/hdfs dfs -mkdir /user
      $ bin/hdfs dfs -mkdir /user/<username>
    
  5. 将输入文件复制到分布式文件系统中:

      $ bin/hdfs dfs -put etc/hadoop input
    
  6. 运行提供的一些示例:

      $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep input output 'dfs[a-z.]+'
    
  7. 检查输出文件:

    将输出文件从分布式文件系统复制到本地文件系统并检查它们:

      $ bin/hdfs dfs -get output output
      $ cat output/*
    

    要么

    查看分布式文件系统上的输出文件:

      $ bin/hdfs dfs -cat output/*
    
  8. 完成后,使用以下命令停止守护进程:

      $ sbin/stop-dfs.sh
    

单节点上的YARN

您可以通过设置一些参数并另外运行ResourceManager守护程序和NodeManager守护程序,以伪分布式模式在YARN上运行MapReduce作业。

以下指令假定上述指令的1.〜4.步骤已经执行。

  1. 配置参数如下:

    etc / hadoop / mapred-site.xml:

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
    

    etc / hadoop / yarn-site.xml:

    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>
    
  2. 启动ResourceManager守护程序和NodeManager守护程序:

      $ sbin/start-yarn.sh
    
  3. 浏览Web界面以找到ResourceManager;默认情况下,它在以下位置可用:

    • ResourceManager - http://localhost:8088/
  4. 运行MapReduce作业。

  5. 完成后,使用以下命令停止守护进程:

      $ sbin/stop-yarn.sh
    

全分布式运行

有关设置全分布式非平凡集群的信息,请参阅集群设置

posted @ 2021-01-27 20:01  数大招疯-公众号同名  阅读(257)  评论(0编辑  收藏  举报