LVS负载均衡群集

目录

 

 

 

一、企业群集应用概述

  1、群集的含义

  Cluster,集群,群集

  由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机。

  2、群集的分类

  负载均衡群集(Load Balance Cluster):提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能;LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如,“DNS轮询”、“反向代理”等。

  高可用群集(High Availability Cluster):提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果;HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线,主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如,“故障切换”、“双机热备”等。

  高性能运算群集(High Performance Computer Cluster):以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力;高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。例如,“云计算”、“网格计算”等。

二、负载均衡群集架构

  1、负载均衡的结构

  第一层,负载调度器(Load Balance 或 Director)

访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。

  第二层,服务器池(Server Pool)

群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除后再重新纳入服务器池。

  第三层,共享存储(Share Storage)

为服务器池中所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。

 

 三、负载均衡群集工作模式

  负载均衡群集是目前企业用的最多的群集模式

  群集的负载调度技术有三种工作模式

 

   1、NAT模式——地址转换

Network Address Translation ,简称NAT模式

类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口

服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式

  2、TUN模式——IP隧道

IP Tunnel,简称TUN模式

采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器

服务器节点分散在互联网的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信

  3、DR模式——直接路由

Direct Routing ,简称DR模式

采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调节器位于同一个物理网络

负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP通道

三、LVS虚拟服务器

  1、Linux Virtual Server

针对Linux内核开发的负载均衡解决方案

1998年5月,由我国的章文嵩博士创建

官方网站:http://www.linuxvirtualserver.org/

LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法

  2、LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。在CentOS 7 系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息

 1 modprobe ip_vs #确认内核对LVS的支持

2 cat /proc/net/ip_vs 

3、LVS的负载调度算法

  3.1 轮询(Round Robin)

将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载

  3.2 加权轮询(Weighted Round Robin)

根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多

保证性能强的服务器承担更多的访问流量

  3.3 最少连接(Least Connections)

根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点

  3.4 加权最少连接(Weighted Least Connections)

在服务器节点的性能差异较大时,可以为真实服务器自动调整权重

性能较高的节点将承担更大比例的活动连接负载

四、使用ipvsadm工具

  1、LVS群集创建与管理

ipvsadm 是在负载调度器上使用的LVS群集管理工具,通过调用ip_vs模块来添加、删除服务器节点,以及查看群集的运行状态。在CentOS 7 系统中,需要手动安装 ipvsadm.x86_64 0.1.27-7.el7 软件包

1 yum -y install ipvsadm
2 ipvsadm -v

LVS群集的管理工作主要包括创建虚拟服务器、添加服务器节点、查看群集节点状态、删除服务器节点和保存负载分配策略

  2、ipvsadm 工具选项说明

 1 -A 添加虚拟服务器
 2 -D 删除整个虚拟服务器
 3 -s 指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接:wlc)
 4 -a 表示添加真实服务器(节点服务器)
 5 -d 删除某一个节点
 6 -t 指定 VIP地址及 TCP端口
 7 -r 指定 RIP地址及 TCP端口
 8 -m 表示使用 NAT群集模式
 9 -g 表示使用 DR模式
10 -i 表示使用 TUN模式
11 -w 设置权重(权重为 0 时表示暂停节点)
12 -p 60 表示保持长连接60秒
13 -l 列表查看 LVS 虚拟服务器(默认为查看所有)
14 -n 以数字形式显示地址、端口等信息,常与“-l”选项组合使用。ipvsadm -ln

五、NAT模式 LVS负载均衡群集部署

负载调度器:内网关 ens33:192.168.80.10 ,外网关 ens36:12.0.0.1

Web节点服务器1:192.168.80.100

Web节点服务器2:192.168.80.101

NFS服务器:192.168.80.13

客户端:12.0.0.12

  1、部署共享存储(NFS服务器:192.168.80.13)

 1 systemctl stop firewalld.service
 2 systemctl disable firewalld.service
 3 setenforce 0
 4 
 5 yum -y install nfs-utils rpcbind
 6 systemctl start rpcbind.service
 7 systemctl start nfs.service
 8 
 9 systemctl enable rpcbind.service
10 systemctl enable nfs.service
11 
12 mkdir /opt/kgc /opt/benet
13 chmod 777 /opt/kgc /opt/benet
14 echo 'this is kgc web !' > /opt/kgc/index.html
15 echo 'this is benet web !' > /opt/benet/index.html
16 
17 vim /etc/exports
18 /usr/share *(ro,sync)
19 /opt/kgc 192.168.80.0/24 (rw,sync)
20 /opt/benet 192.168.80.0/24 (rw,sync)
----发布共享----
export -rv

 

 

  2、配置节点服务器(192.168.80.100、192.168.80.101)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum -y install httpd
systemctl start httpd.service
systemctl enable httpd.service

yum -y install nfs-utils rpcbind
showmount -e 192.168.80.13

systemctl start rpcbind
systemctl enable rpcbind

----192.168.80.100----
mount.nfs 192.168.80.13:/opt/kgc /var/www/html

vim /etc/fstab
192.168.80.13:/opt/kgc/ /var/www/html nfs defaults,_netdev 0 0

----192.168.80.101----
mount.nfs 192.168.80.13:/opt/benet /var/www/html

vim /etc/fstab
192.168.80.13:/opt/kgc/ /var/www/html nfs defaults,_netdev 0 0

 

 

  3、配置负载调度器(内网关 ens33:192.168.80.10 ,外网关 ens36:12.0.0.1)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

 

 

  (1)配置SNAT转发规则

vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
//or
echo '1' > /proc/sys/net/ipv4/ip_forward
sysctl -p

iptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.80.0/24 -o ens36 -j SNAT --to-source 12.0.0.1

  (2)加载LVS内核模块

modprobe ip_vs            //加载 ip_vs模块
cat /proc/net/ip_vs         //查看ip_vs版本信息

for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done

  (3)安装ipvsadm管理工具

yum -y install ipvsadm

//启动服务前须保存负载分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
//or
ipvsadm --save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm.service

  (4)配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)

ipvsadm -C      //清除原有策略
ipvsadm -A -t 12.0.0.1:80 -s rr
ipvsadm -a -t 12.0.0.1:80 -r 192.168.80.11:80 -m [-w 1]
ipvsadm -a -t 12.0.0.1:80 -r 192.168.80.12:80 -m [-w 1]
ipvsadm      //启用策略

ipvsadm -ln     //查看节点状态,Masq代表NAT模式
ipvsadm-save > /etc/sysconfig/ipvsadm      //保存策略

/*
ipvsadm -d -t 12.0.0.1:80 -r 192.168.80.11:80      #删除群集中某一节点服务器
ipvsadm -D -t 12.0.0.1:80      #删除整个虚拟服务器
systemctl stop ipvsadm      #停止服务(清除策略)
systemctl start ipvsadm      #启动服务(重建规则)
ipvsadm-restore < /etc/sysconfig/ipvsadm      //恢复LVS策略
*/

 

 

 

 

  4、测试效果

在一台ip为12.0.0.12的客户机使用浏览器访问http://12.0.0.1/ ,不断刷新浏览器测试负载均衡效果,刷新间隔需长点。

 

 

 

 

补充:

正向代理即是客户端代理, 代理客户端, 服务端不知道实际发起请求的客户端
反向代理即是服务端代理, 代理服务端, 客户端不知道实际提供服务的服务端

 

posted @ 2021-08-23 12:14  peiqy  阅读(58)  评论(0编辑  收藏  举报