云计算环境Hadoop安装与配置

 一.Ubuntu怎么开启/关闭防火墙
在Ubuntu中,使用sudo ufw status命令查看当前防火墙状态。
不活动,是关闭状态。
在Ubuntu中,使用sudo ufw enable命令来开启防火墙。
在Ubuntu中,使用sudo ufw disable命令来关闭防火墙。

 

二.创建hadoop用户

如果你安装Ubuntu的时候不是使用的"hadoop"用户, 那么需要增加一个名为hadoop的用户.

1)首先按ctrl+alt+t打开终端窗口,输入如下命令创建新用户:

sudo useradd -m hadoop -s/bin/bash

2)接着可以使用如下命令设置密码,可以简单的设置为hadoop, 按提示输入两次密码:

sudo passwd hadoop

3)可以为hadoop用户增加管理员权限, 方便部署, 避免一些新手来说比较棘手的权限问题.

三.更新apt

ubuntu如何切换到其他用户

如果是字符终端切换的话,用 “su - 其他用户名”,这个命令就可以了。
  1. hadoop 用户登录后,我们先更新一下 apt,后续我们使用 apt 安装软件,如果没更新可能有一些软件安装不了。

  2. ctrl+alt+t 打开终端窗口,

  3. 执行如下命令:


sudo apt-get update



 

 

安装SSH、配置SSH无密码登陆

 

  1. 集群、单节点模式都需要用到 SSH 登陆(类似于远程登陆,你可以登录某台 Linux 主机,

  2. 并且在上面运行命令),Ubuntu 默认已安装了 SSH client,此外还需要安装 SSH server

sudo apt-get install openssh-server

 

 

2. 安装后,可以使用如下命令登陆本机(此时会有如下提示(SSH首次登陆提示),输入 yes

然后按提示输入密码 hadoop,这样就登陆到本机了, 但这样登陆是需要每次输入密码的,

我们需要配置成SSH无密码登陆比较方便)

ssh localhost

 

 

 

3) 首先退出刚才的 ssh,就回到了我们原先的终端窗口,然后利用 ssh-keygen 生成密钥,

     并将密钥加入到授权中:

exit # 退出刚才的 ssh localhost

cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost

 

ssh-keygen -t rsa # 会有提示,都按回车就可以

 

cat ./id_rsa.pub >> ./authorized_keys # 加入授权

 

 

此时再用 ssh localhost 命令,无需输入密码就可以直接登陆了,如下图所示

 

 

        安装配置JDK

  1. Java环境可选择 Oracle JDK,或是 OpenJDK,通过命令安装 OpenJDK 7

sudo apt-get install openjdk-8-jre openjdk-8-jdk

  1. 在文件最前面添加如下单独一行:

vi ~/.bashrc # 设置JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

  1. 使 JAVA_HOME 变量生效:

source ~/.bashrc # 使变量设置生效

 

 

在单节点(伪分布式)环境下运行HADOOP

 

    1.安装 Hadoop 2

cd ~/下载

sudo tar -zxvf ./hadoop-2.6.0.tar.gz -C /usr/local # 解压到/usr/local

cd /usr/local/

sudo mv ./hadoop-2.6.0/ ./hadoop # 将文件夹名改为hadoop

sudo chown -R hadoop ./hadoop # 修改文件权限

                         

      2.进行伪分布式配置

修改配置文件 core-site.xml (vim /usr/local/hadoop/etc/hadoop/core-site.xml)

<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/usr/local/hadoop/tmp</value>

<description>Abase for other temporary directories.</description>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

文件 hdfs-site.xmldfs.replication 一般设为 3,但我们只有一个 Slave 节点,所以 dfs.replication 的值还是设为 1

<configuration>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>Master:50090</value>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/usr/local/hadoop/tmp/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/usr/local/hadoop/tmp/dfs/data</value>

</property>

</configuration>

文件 mapred-site.xml (可能需要先重命名,默认文件名为 mapred-site.xml.template),然后配置修改如下:

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>Master:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>Master:19888</value>

</property>

</configuration>

文件 yarn-site.xml

<configuration>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>Master</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

 

 

 

        3.启动 Hadoop:

cd /usr/local/hadoop

bin/hdfs namenode -format # namenode 格式化

sbin/start-dfs.sh # 开启守护进程

jps # 判断是否启动成功

 

     4.运行 WordCount 实例

bin/hdfs dfs -mkdir -p /user/hadoop # 创建HDFS目录

bin/hdfs dfs -mkdir input

bin/hdfs dfs -put etc/hadoop/*.xml input # 将配置文件作为输入

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar wordcount input output

bin/hdfs dfs -cat output/* # 查看输出

 

 

 

 

 

 

 

 

 

 

 

posted @ 2021-05-18 00:23  liweikuan  阅读(300)  评论(0编辑  收藏  举报