Base虚拟机克隆集群节点,并固定IP与免密互通

使用Base克隆集群节点

先把Base关机,然后右键 - 管理 - 克隆
image

选择完整克隆
image
克隆名字这里叫node1
image

重复步骤,克隆node2/node3
为了分类,创建了一个大数据集群文件夹
image

以下命令全是root权限执行

配置固定IP

# 修改主机名
hostnamectl set-hostname node1
# 修改IP
vim /etc/sysconfig/network-scripts/ifcfg-ens33
# 重启network
systemctl restart network

修改后的ifcfg-ens33如下

修改 BOOTPROTO="static" 为静态地址
新增 IPADDR NETMARK GATEWAY DNS1

PE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="440b1b34-10de-4a94-b2db-9ad8528f0713"
DEVICE="ens33"
ONBOOT="yes"
IPADDR="192.168.88.131"
NETMARK="255.255.255.0"
GATEWAY="192.168.88.2"
DNS1="192.168.88.2"

剩下的node2/node3 以此执行,分别把hostname改成node2/node3,IP为192.168.88.132/192.168.88.133
设置完之后分别为:
image
image
image

配置主机名映射,方便直接访问

vim /etc/hosts

# 粘贴如下内容

192.168.88.131 node1
192.168.88.132 node2
192.168.88.133 node3

image

配置SSH免密登陆

ssh-keygen -t rsa -b 4096
# 一路回车
#在每一个节点都执行
ssh-copy-id node1;ssh-copy-id node2;ssh-copy-id node3;

设置完成后,各个服务器都可以互通啦 (这里的免密登陆是root用户)
image

创建hadoop用户并配置免密登陆

为大数据软件创建hadoop账户,并为node1/2/3进行同样的配置

# 创建用户
useradd hadoop
# 设置密码 密码设置为123456,方便输入
passwd hadoop
# 切换到hadoop用户
su - hadoop
# 创建ssh密钥
ssh-keygen -t rsa -b 4096
#最后在每一个节点使用hadoop用户都执行
ssh-copy-id node1;ssh-copy-id node2;ssh-copy-id node3;

image

至此,通过Base创建了3台服务器,并设置了IP地址,新增了hadoop用户,并配置了root和hadoop用户的ssh免密互通

posted @ 2023-10-18 11:14  邓振振  阅读(67)  评论(0编辑  收藏  举报