阿里云3台机器搭建Hadoop HA服务
1 Mac电脑配置 阿里云配置机器
选择配置 按量付费 选择三台机器 2核8G
镜像选择CentOS7.4
网络设置 默认
系统配置 勾选好 添加有序后缀
设置好释放时间
最后再次确认信息
第二部 使用Zoc7 建立连接
并保持到zoc7软件 菜单栏
第三部 filezilla上传软件 jdk zookeeper hadoop
jdk1.8.191 Zookeeper3.4.12 apache-hadoop2.8.4
4 配置jdk环境
(1)解压安装包 tar -zvxf jdk*.tar.gz
(2) 修改/etc/profile文件 vi /etc/profile
(3) source /etc/profile
(4) 验证是否安装成功
5 关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
6 hosts文件配置 三台机器都得配置
vi /etc/hosts
7 配置ssh免密登陆 详见另一篇博客
添加Hadoop用户 并生成Hadoop用户的ssh key
su hadoop
ssh-keygen -t rsa
8 安装Zookeeper
(1)解压 tar -zvxf zookeeper*.tar.gz
(2)重命名文件 mv zookeeper-3.4.12 zookeeper
(3)赋予文件目录到root chown -R root:root zookeeper
(4)修改配置
cd /opt/software/zookeeper/conf
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg
修改 dataDir=/opt/software/zookeeper/data
server.1=hadoop001:2888:3888
server.2=hadoop002:2888:3888
server.3=hadoop003:2888:3888
之后新建数据目录
cd ../
mkdir data
touch data/myid
echo 1 > data/myid
## hadoop002/003,也修改配置,就如下不同
[root@hadoop001 software]# scp -r zookeeper hadoop002:/opt/software/
[root@hadoop001 software]# scp -r zookeeper hadoop003:/opt/software/
[root@hadoop002 zookeeper]# echo 2 > data/myid
[root@hadoop003 zookeeper]# echo 3 > data/myid
9 安装hadoop
(1)tar -zvxf hadoop-2.8.4.tar.gz
mv hadoop-2.8.4 hadoop
cd hadoop/etc/hadoop/
vi hadoop-env.sh
(2).修改$HADOOP_HOME/etc/opt/software/hadoop-env.sh
# The java implementation to use.
export JAVA_HOME=/opt/software/jdk1.8.0_191/
export HADOOP_OPTS="$HADOOP_OPTS -Djava.net.preferIPv4Stack=true -Djava.library.path=$HADOOP_HOME/lib:$HADOOP_HOME/lib/native"
(3).修改$HADOOP_HOME/etc/hadoop/core-site.xml
(4).修改$HADOOP_HOME/etc/hadoop/hdfs-site.xml
(5).修改$HADOOP_HOME/etc/hadoop/yarn-env.sh
#Yarn Daemon Options
#export YARN_RESOURCEMANAGER_OPTS
#export YARN_NODEMANAGER_OPTS
#export YARN_PROXYSERVER_OPTS
#export HADOOP_JOB_HISTORYSERVER_OPTS
#Yarn Logs
export YARN_LOG_DIR="/opt/software/hadoop/logs”
(6).修改$HADOOP_HOEM/etc/hadoop/mapred-site.xml
[root@hadoop001 hadoop]# cp mapred-site.xml.template mapred-site.xml
(7).修改$HADOOP_HOME/etc/hadoop/yarn-site.xml
(8).修改 slaves
[root@hadoop001 hadoop]# vi slaves
hadoop001
hadoop002
hadoop003
(9).创建临时文件夹和分发文件夹
[root@hadoop001 hadoop]# mkdir -p /opt/software/hadoop/tmp
[root@hadoop001 hadoop]# chmod -R 777 /opt/software/hadoop/tmp
[root@hadoop001 hadoop]# chown -R root:root /opt/software/hadoop/tmp
[root@hadoop001 hadoop]# scp -r hadoop root@hadoop002:/opt/software
[root@hadoop001 hadoop]# scp -r hadoop root@hadoop003:/opt/software
10 启动集群
(1)启动Zookeeper
[root@hadoop001 zookeeper]# $ZOOKEEPER_HOME/bin/zkServer.sh start
[root@hadoop002 zookeeper]# $ZOOKEEPER_HOME/bin/zkServer.sh start
[root@hadoop003 zookeeper]# $ZOOKEEPER_HOME/bin/zkServer.sh start
(2)启动Hadoop(HDFS + YARN)
[root@hadoop001 sbin]# hadoop-daemon.sh start journalnode
[root@hadoop002 hadoop]# cd /opt/software/hadoop/sbin
[root@hadoop003 sbin]# hadoop-daemon.sh start journalnode
(2).NameNode 格式化
[root@hadoop001 hadoop]# hadoop namenode -format
(3).同步 NameNode 元数据
同步 hadoop001 元数据到 hadoop002 主要是:dfs.namenode.name.dir,dfs.namenode.edits.dir 还应该确保共享存储目录下 (dfs.namenode.shared.edits.dir ) 包含 NameNode 所有的元数据。
[root@hadoop001 hadoop]# pwd
/opt/software/hadoop
[root@hadoop001 hadoop]# scp -r data/ root@hadoop002:/opt/software/hadoop
(4).初始化 ZFCK
hdfs zkfc -formatZK
(5).启动 HDFS 分布式存储系统
[root@hadoop001 sbin]# start-dfs.sh
10.启动 YARN 框架
(1)hadoop001 启动 Yarn,命令所在目录:$HADOOP_HOME/sbin
[root@hadoop001 hadoop]# start-yarn.sh
(2) hadoop002 备机启动 RM
[root@hadoop002 ~]# yarn-daemon.sh start resourcemanager
最后 验证进程
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
· 一个奇形怪状的面试题:Bean中的CHM要不要加volatile?
· [.NET]调用本地 Deepseek 模型
· Blazor Hybrid适配到HarmonyOS系统
· Obsidian + DeepSeek:免费 AI 助力你的知识管理,让你的笔记飞起来!
· 解决跨域问题的这6种方案,真香!
· 一套基于 Material Design 规范实现的 Blazor 和 Razor 通用组件库
· 5. Nginx 负载均衡配置案例(附有详细截图说明++)