搭建hadoop 基于yarn的集群模式

 准备工作:三个虚拟机相同操作

1.创建三个虚拟机,参考之前的配置信息

2.设置主机名 vi /etc/hosts  加入

192.168.61.112 bigdata112

192.168.61.113 bigdata113

192.168.61.114 bigdata114

3.关闭防火墙: systemctl stop firewalld.service / systemctl disable firewalld.service

4.设置免密码登录(参照之前文章)

5.添加JAVA_HOME,

生效配置
source ~/.bash_profile

6.统一设置系统时间(不设置会导致运行出错)

这里使用xshell远程比较方便,注意设置多seasion连屏,和右键粘贴功能

 6. 在112上配置hadoop(和上篇部署hadoop原理一样)

但需要修改配置文件  /root/training/hadoop-2.7.3/etc/hadoop

hadoop-env.sh,hdfs.site.xml,core-site.xml,mapred-site.xml,yarn-site.xml,slaves

 

 hadoop-env.sh

 hdfs.site.xml : 配置数据块的冗余度 比如三台服务器 bigdata112 113 114 那么 冗余度就是 2,最大不要超过三

下面的permission是禁用权限

 core-site.xml

mapred-site.xml

 yarn-site.xml

 slaves:指定从节点的地址

 7. 把112上配置好的hadoop拷贝到从节点113,114

scp -r /root/training/hadoop-2.7.3/ root@192.168.61.113:root/training

scp -r /root/training/hadoop-2.7.3/ root@192.168.61.114:root/training

8. 执行hdfs namenode -format

出现 INFO common.Storage: Storage directory /root/training/hadoop-2.7.3/tmp/dfs/name has been successfully formatted.

9. 在112上执行 start-all.sh

主节点(112)显示内容  jps

ResourceManager   属于yarn工具 主要任务的接收和资源分配
SecondaryNameNode  日志信息的合并
NameNode  主节点  

主节点(113.114)显示内容  jps

DataNode   从节点
NodeManager  属于yarn工具 负责执行任务

10.  测试是否部署成功 

创建 /root/temp/data.txt

写入文本  echo "I LOVE BEIJING AND I LOVE CHINA" > data.txt

hdfs存储内部增加路径   /input hdfs dfs -mkdir /input

将本地创建文本考入到hdfs中存储    hdfs dfs -put /root/temp/input/data.txt /input

查看放入的文本:hdfs dfs -ls /input

执行 mapreduce

hadoop jar /root/training/hadoop-2.7.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar  wordcount /input/data.txt /output/wc

查看输入文件是否存在:hdfs dfs -ls /output/wc 

查看结果:

 

posted @ 2024-04-06 11:23  蔡徐坤1987  阅读(16)  评论(0编辑  收藏  举报