完全分布式部署hadoop

配置集群

  1. 解压hadoop jar 包
tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module

解压后的文件
image

查看文件的用户和用户组
image
这里不是root用户即可。

输入

hadoop

出现以下内容,则环境已经配好
image

如果出现以下报错,则在 在hadoop-env.sh中,再显示地重新声明一遍JAVA_HOME
image

  1. 配置core-site.xml

配置如下内容

<!-- 指定HDFS中NameNode的地址 -->
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://192.168.250.151:9090</value>
	</property>
	<!-- 指定hadoop运行时产生文件的存储目录 -->
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/opt/module/hadoop-2.7.2/data/tmp</value>
	</property>
  1. 配置hadoop-env.sh

配置java_home

export JAVA_HOME=/opt/module/jdk1.8
  1. 配置hdfs-site.xml
 <!-- 设置副本数 -->
  <property>
    <name>dfs.replication</name>
    <value>3</value>
  </property>
	<property>
		<name>dfs.namenode.secondary.http-address</name>
		<value>192.168.250.153:50090</value>
	</property>
  1. 配置slaves
192.168.250.151
192.168.250.152
192.168.250.153
  1. 配置yarn-env.sh

配置java_home

export JAVA_HOME=/opt/module/jdk1.8
  1. 配置yarn-site.xml
<!-- reducer获取数据的方式 -->
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>
<!-- 指定yarn的resourcemanager的地址 -->
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>192.168.250.153</value>
</property>
  1. 配置mapred-env.sh
export JAVA_HOME=/opt/module/jdk1.8
  1. 配置mapred-site.xml

文件夹中并没有mapred-site.xml文件,需要将mapred-site.xml.templete文件重命名为mapred-site.xml。并添加以下内容

<!-- 指定mr运行在yarn上 -->
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
  1. 将上述文件分发到其他服务器

分发脚本 xsync.sh

#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if ((pcount==0)); then
echo no args;
exit;
fi

#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname

#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir

#4 获取当前用户名称
user=`whoami`

#5 循环
for((host=152; host<154; host++)); do
        #echo $pdir/$fname $user@hadoop$host:$pdir
        echo --------------- 192.168.250$host ----------------
        rsync -rvl $pdir/$fname $user@192.168.250.$host:$pdir
done	

执行以下命令

[hadoop@hadoop2 bin]$ ./xsync.sh /opt/module/hadoop-2.7.5/etc/hadoop/

启动集群

  1. 查看集群是否已经启动
jps

注意事项:

  • jps查看集群是否启动
  • 查看当前用户(不是root用户即可)
  • 查看是否在namenode节点上启动
  1. 启动集群

在namenode所在的服务器上启动

sbin.start-dfs.sh

查看集群是否启动,启动一个查看一个

jps
  1. 在yarn所在的服务器上启动yarn
sbin/start-yarn.sh
posted @ 2018-09-27 11:16  Alighieri  Views(185)  Comments(0Edit  收藏  举报