LVS+KEEPALIVED
KEEPALIVED
keepalived 专为LVS和HA设计的一款健康检查工具
支持故障切换
支持健康检查
判断 LVS 负载调度器、节点服务器的可用性,当 master 主机出现故障及时切换到backup 节点保证业务正常,当 master故障主机恢复后将其重新加入群集并且业务重新切换回 master 节点。
官方网站: http://www.keepalived.org/
#
1)负载均衡 获取更大的并发量
2)健康检查 后端节点服务器要做健康检查,调度器也要做健康检查 (探针) TCP调度器/系欸但服务器 Keepalived Heartbeat
探针方式:#
①发送心跳信息,ping/pong
②TCP端口检查,向目标主机的IP:PORT 发送TCP连接请求,如果TCP连接三次握手成功,则认为健康检查探测成功,否则认为健康探测检查失败
③HTTP URL检查 向目标主机的 http://IP:PORT/URL路径 发送HTTP GET 请求方法,如果响应消息是 2xx 3xx 的状态码则认为健康检查探测成功, 如果响应消息是4xx 5xx 的状态码则认为健康检查探测失败。
3)故障转移 通过vip飘逸实现主备切换
#
由多台路由器组成一个热备组,通过共用的虚拟IP地址对外提供服务
每个热备组内同时只有一台主路由器提供服务,其他路由器处于冗余状态
若当前在线的路由器失效,则其他路由器会根据设置的优先级自动接替虚拟IP地址,继续提供服务
#
在一个LVS服务集群中通常有主服务器(MESTER) 和备份服务器(BACKUP) 两种色的服务器,但是对外表现为一个虚拟IP(VIP),主服各器会发送VRRP通告信息给备份朋务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性
Keepalived的设计目标#
构建高可用的LVS负载均衡群集,可以调用ipvsadm工具来创建虚拟服务器、管理服务器池,而不仅仅用作双机热备使用Keepalived构建LVS群集更加简便易用
主要优势 对LVS负载调度器实现热备切换,提高可用性对服务器池中的节点进行健康检查,自动移除失效节点恢复后再重新加入
#
面试题#
keepalived通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP?
keepalived首先做初始化先检查state状态,master为主服务器,backup为服务器
然后再对比所有服务器的priority,谁的优先级高谁是最终主服务器
优先级高的服务器会通过IP命令为自己的电脑配置一个提前定义好的浮动IP地址
keepalivs实现LVS高可用实验#
#五台服务器,22主服务器,27备服务器,23,28节点服务器,24共享存储服务器
配置主,备服务器#
#安装 ipvsadm 和keepalived
# LVS是基于内核的,所以要加载内核模块
#备份下配置文件
修改,邮件服务指向本地 smtp_server 127.0.0.1 修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02 删除后四行 修改,指定热备状态,主为MASTER,备为BACKUP state MASTER 修改,指定承载vip地址的物理接口 interface ens33 指定优先级,数值越大优先级越高,这里设置主为100,备为90 priority 100 virtual_ipaddress { #指定群集vip地址 192.168.80.188 } 修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数 virtual_server 192.168.19.200 80 { 修改,指定群集工作模式,直接路由(DR) lb_kind DR persistence_timeout 0 #连接保持时间(秒) protocol TCP #应用服务采用的是 TCP协议 修改,指定第一个Web节点的地址、端口 real_server 192.168.80.12 80 { weight 1 #节点的权重 删除,添加以下健康检查方式 TCP_CHECK { connect_port 80 #添加检查的目标端口 connect_timeout 3 #添加连接超时(秒) nb_get_retry 3 #添加重试次数 delay_before_retry 3 #添加重试间隔 } } real_server 192.168.80.13 80 { #添加第二个 Web节点的地址、端口 weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } ##删除后面多余的配置## }
#开启keepalived服务
#VIP地址已有
#保存
#开启ipvsadm
#调整 proc 响应参数,关闭Linux 内核的重定向参数响应
#将主服务器的配置文件传给备服务器
#备服务器,备份下。
#改三处地方,名称,热备状态,优先级。 其他根主服务器操作一致
节点服务器#
#安装http
#开启httpd服务
#复制个回环,修改回环
#名字改成修改后的名称,IP指定VIP IP
#开启回环网卡
#添加内核参数配置
#永久挂载,23服务器挂kgc,28挂载benet。 28节点服务器与上同步
开启http nfs rpcbind服务
共享存储服务器#
systemctl stop firewalld.service systemctl disable firewalld.service setenforce 0 yum install nfs-utils rpcbind -y systemctl start rpcbind.service systemctl start nfs.service systemctl enable nfs.service systemctl enable rpcbind.service mkdir /opt/kgc /opt/benet chmod 777 /opt/kgc /opt/benet echo 'this is kgc web!' > /opt/kgc/index.html echo 'this is benet web!' > /opt/benet/index.html vim /etc/exports/opt/kgc 192.168.80.0/24(rw,sync) /opt/benet 192.168.80.0/24(rw,sync)
发布共享---
exportfs -rv
#浏览器访问 可以出来
#关闭主服务器的keepalived服务
#打开备服务器,查看IP。备服务器已有VIP地址
#再次访问下,发现依旧可以访问
脑裂现象:主服务器和备服务器同时拥有VIP#
原因:因为主服务器和备服务器之间的通信链路终端,导致备服务器无法收到主服务器发送的VRRP心跳(通告)消息,备服务器误认为主服务器故障了并通过IP命令生成VIP
解决:关闭主服务器或备服务器其中一个的keepalived服务
预防:①主备之间做双链路通信
② 在主服务器上添加脚本进行判断与备服务器通信链路是否中断,如果确实中断则自行关闭keepalived服务
#!/bin/bash ping -c 4 -i 0.5 -w 2 192.168.19.27 #主ping备 if [ $? -ne 0 ]; #反馈值不等于0 then ssh 192.168.19.23 ping -c 4 -i 0.5 -w 2 -I 192.168.19.23 192.168.19.27 #登录一个节点服务器来ping 备服务器 if [ $? -eq 0 ]; #上一个命令是否执行成功 then systemctl stop keepalived #关闭keepalived服务 else exit #退出脚本 fi #检测主备之间的连通性
③利用第三方应用或监控系统检测是否发生脑裂故障,如果发生脑裂则通过第三方应用或监控系统来关闭主服务器或备服务器上的keepalived 服务
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?