完全分布式部署hadoop
配置集群
- 解压hadoop jar 包
tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module
解压后的文件
查看文件的用户和用户组
这里不是root用户即可。
输入
hadoop
出现以下内容,则环境已经配好
如果出现以下报错,则在 在hadoop-env.sh中,再显示地重新声明一遍JAVA_HOME
- 配置core-site.xml
配置如下内容
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.250.151:9090</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
- 配置hadoop-env.sh
配置java_home
export JAVA_HOME=/opt/module/jdk1.8
- 配置hdfs-site.xml
<!-- 设置副本数 -->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>192.168.250.153:50090</value>
</property>
- 配置slaves
192.168.250.151
192.168.250.152
192.168.250.153
- 配置yarn-env.sh
配置java_home
export JAVA_HOME=/opt/module/jdk1.8
- 配置yarn-site.xml
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定yarn的resourcemanager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>192.168.250.153</value>
</property>
- 配置mapred-env.sh
export JAVA_HOME=/opt/module/jdk1.8
- 配置mapred-site.xml
文件夹中并没有mapred-site.xml文件,需要将mapred-site.xml.templete文件重命名为mapred-site.xml。并添加以下内容
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
- 将上述文件分发到其他服务器
分发脚本 xsync.sh
#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if ((pcount==0)); then
echo no args;
exit;
fi
#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname
#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir
#4 获取当前用户名称
user=`whoami`
#5 循环
for((host=152; host<154; host++)); do
#echo $pdir/$fname $user@hadoop$host:$pdir
echo --------------- 192.168.250$host ----------------
rsync -rvl $pdir/$fname $user@192.168.250.$host:$pdir
done
执行以下命令
[hadoop@hadoop2 bin]$ ./xsync.sh /opt/module/hadoop-2.7.5/etc/hadoop/
启动集群
- 查看集群是否已经启动
jps
注意事项:
- jps查看集群是否启动
- 查看当前用户(不是root用户即可)
- 查看是否在namenode节点上启动
- 启动集群
在namenode所在的服务器上启动
sbin.start-dfs.sh
查看集群是否启动,启动一个查看一个
jps
- 在yarn所在的服务器上启动yarn
sbin/start-yarn.sh