大数据虚拟机集群搭建
大数据集群搭建
@
注:服务器准备(以三台虚拟机为例)
一、虚拟机环境准备
(1)系统以Centos-7.5-x86-1804为例最小化安装后,使用yum安装基本的工具,安装epel-release
注:该工具相当于是一个软件仓库
(2)安装net-tools:工具包集合包含很多命令
安装vim:编辑器
安装一些其他工具
(3)关闭防火墙以及防火墙开机自启
(4)创建用户
(5)配置flink用户具有root权限,方便后期加sudo执行root权限命令
(6)在/opt目录下创建module(后面放软件)和software(后面放安装包)文件夹
将两个文件夹的权限赋予给flink用户
(7)虚拟机克隆
克隆出虚拟机flink102、flink103、flink104三台虚拟机
(8)修改克隆机IP,以flink102为例
修改为
查看windows系统中网络适配器VMware Network Adapter VMnet8的IP地址(virtual box是VirtualBox Host-Only Ethernet Adapter)
默认网关设置为192.168.20.1
(9)修改虚拟机主机名
配置Linux克隆机主机映射hosts文件
重启虚拟机
(10)修改windows系统中的host文件,路径:C:\Windows\System32\drivers\etc
添加如下内容:
二、在flink102上安装JDK(这边开始用自建的用户flink开始操作)
(1)这边安装jdk1.8,具体安装包:jdk-8u212-linux-x64.tar.gz
将安装包传输到/opt/software,然后解压
(2)新建/etc/profile.d/my_env.sh文件
添加如下内容
测试jdk1.8是否生效
三、Hadoop安装,先在flink02上
(1)Hadoop安装,这里用的是Hadoop-3.1.3.tar.gz,将文件传输到/opt/software再进行解压
将Hadoop添加到环境变量中
添加如下设置:
记得source一下,使环境变量生效
测试Hadoop是否安装成功
如果没生效可以重启虚拟机试试reboot
(2)搭建集群,需要在flink103、flink104上安装hadoop-3,1.3,因为flink102上已经搭建完成了,所以只要分发给flink103、flink104即可
xsync脚本编写
具体脚本如下:
将该脚本赋予执行权限
(3)分发jdk和hadoop到flink103、flink104
记得在flink103、flink104上source一下
注意:这边分发的时候比较麻烦是需要输好多遍密码的,下面设置一下公共钥匙就可以无密码登录了
(4)ssh无密登录
先在102上生成公钥和私钥
然后敲三个回车,就会生成公钥和私钥
将公钥拷贝到要免密登录的机器
同样的操作需要在103和104上实施一遍
四、集群部署
(1)集群部署规划
102上部署HDFS的NameNode和DataNode以及YARN的NodeManager
103上部署HDFS的DataNode以及YARN的ResourceManager和NodeManager
104上部署SecondaryNamNode和DataNode以及YARN的NodeManager
(2)配置文件修改
配置core-site.xml
HDFS配置文件
配置hdfs-site.xml
YARN配置文件
配置yarn-site.xml
MapReduce配置文件
配置mapred-site.xml
(3)在集群上分发配置好的Hadoop配置文件
去103和104上查看文件分发情况
(4)群起集群
配置workers
启动集群
1,如果集群是第一次启动,需要在102节点格式化NameNode(注意:格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。如果集群在运行过程中报错,需要重新格式化NameNode的话,一定要先停止namenode和datanode进程,并且要删除所有机器的data和logs目录,然后再进行格式化。)启动journalnode,三台机器都要这一步操作(仅第一次启动hadoop时,需要这一步操作,之后不再需要手动启动journalnode)
2,启动HDFS
3,在配置了ResourceManager的节点(103)启动YARN
4,Web端查看HDFS的NameNode
浏览器中输入:http://flink102:9870
查看HDFS上存储的数据信息
5,Web端查看YARN的ResourceManager
浏览器中输入:http://flink103:8088
查看YARN上运行的Job信息
(5)配置历史服务器
为了查看程序的历史运行情况,需要配置一下历史服务器。具体配置步骤如下:
1)配置mapred-site.xml
2)分发配置
3)在flink102启动历史服务器
4)查看历史服务器是否启动
5)查看JobHistory
http://flink102:19888/jobhistory
(6)配置日志的聚集
日志聚集概念:应用运行完成以后,将程序运行日志信息上传到HDFS系统上。
日志聚集功能好处:可以方便的查看到程序运行详情,方便开发调试。
注意:开启日志聚集功能,需要重新启动NodeManager 、ResourceManager和HistoryServer。
开启日志聚集功能具体步骤如下:
1)配置yarn-site.xml
2)分发配置
3)关闭NodeManager 、ResourceManager和HistoryServer(103节点)
4)启动NodeManager 、ResourceManage和HistoryServer
(7)集群群起/群停
需要在写一个脚本来群起集群
脚本如下:
脚本完成后别忘了给脚本加上执行权限
(8)集群查看后台进程运行情况脚本
上文有提到jps查看后台进程运行情况,但是不足的是我们的集群查看后台进程需要一台一台去看服务是否起来了,如果集群数量增加会很麻烦,所以需要编写一个集群后台进程查看脚本
脚本如下:
赋予其执行权限
(9)集群时间同步
需要一台集群中的机器作为时间同步的标准,避免集群中各台机器时间不同步发生数据上的问题
修改102节点上的ntp配置文件
修改内容如下
修改1(授权192.168.10.0-192.168.10.255网段上的所有机器可以从这台机器上查询和同步时间)
修改2(集群在局域网中,不使用其他互联网上的时间)
添加3(当该节点丢失网络连接,依然可以采用本地时间作为时间服务器为集群中的其他节点提供时间同步)
修改flink102的/etc/sysconfig/ntpd 文件
增加内容如下(让硬件时间与系统时间一起同步)
重新启动ntpd服务
设置ntpd服务开机启动
其他机器配置(必须root用户)
(1)关闭所有节点上ntp服务和自启动
(2)在其他机器配置1分钟与时间服务器同步一次
编写定时任务如下:
(3)修改任意机器时间
(4)1分钟后查看机器是否与时间服务器同步
__EOF__

本文链接:https://www.cnblogs.com/xiaolongbaoxiangfei/p/15800681.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角【推荐】一下。您的鼓励是博主的最大动力!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人