Hadoop集群搭建前的大数据环境配置
Hadoop集群安装配置教程
1.大数据环境配置统一
当Hadoop采用分布式模式部署和运行时,存储采用分布式文件系统HDFS,而且,HDFS的名称节点和数据节点位于不同机器上。这时,数据就可以分布到多个节点上,不同数据节点上的数据计算可以并行执行,这时的MapReduce分布式计算能力才能真正发挥作用。
为了降低分布式模式部署难度,本教程简单使用三个节点来搭建集群环境。
首先进行虚拟机克隆
1)使用VMware加载资料中虚拟机node1
2)克隆虚拟机,注意克隆虚拟机的时候,虚拟机必须是关闭状态
下一步
下一步
创建完整克隆
完成
虚拟机三重复以上操作
配置MAC地址
Slave1和Slave2都是从Master克隆过来的,他们的MAC地址都一样,所以需要让Slave1和Slave2重新生成MAC地址,生成方式如下:
生成新的MAC地址
配置IP地址
设置静态网络
Master,IP地址为192.168.88.181
Slave1,IP地址为192.168.88.182
Slave2,IP地址为192.168.88.183
测试网络
ping baidu.com -c 4
修改三台机器之间的映射
1、配置每台虚拟机主机名:
分别编辑每台虚拟机的hostname文件,直接填写主机名,保存退出即可。
sudo vim /etc/hostname
第一台主机主机名为: Master.itcast.cn
第二台主机主机名为: Slave1.itcast.cn
第三台主机主机名为: Slave2.itcast.cn
2、配置每台虚拟机域名映射
分别编辑每台虚拟机的hosts文件:
三台虚拟机的配置内容都一样。
sudo vim /etc/hosts
在原有内容的基础上,填下以下内容:
192.168.88.161 node1 node1.itcast.cn
192.168.88.162 node2 node2.itcast.cn
192.168.88.163 node3 node3.itcast.cn
在原有内容的基础上,修改以下内容:
在Slave1上修改:
127.0.1.1 Master
修改为:
127.0.1.1 Slave1
在Slave2上修改:
127.0.1.1 Master
修改为:
127.0.1.1 Slave2
三台机器机器免密码登录
三台机器生成公钥与私钥
三台机器执行以下命令:
ssh-keygen
回车三次形成密钥
三台机器机器执行以下命令:
ssh-copy-id Master
ssh-copy-id Slave1
ssh-copy-id Slave2
测试SSH免密登录
可以在任何一台主机上通过ssh 主机名命令去远程登录到该主机,输入exit退出登录
例如:在Master机器上,免密登录到Slave1机器上
ssh Slave1
exit
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 零经验选手,Compose 一天开发一款小游戏!
· 一起来玩mcp_server_sqlite,让AI帮你做增删改查!!