LVS结合keepalived配置测试

 LVS/DR + keepalived配置
注意:前面虽然我们已经配置过一些操作,但是下面我们使用keepaliave操作和之前的操作是有些冲突的,所以若是之前配置过DR,请首先做如下操作:
 
三台机器:
director(eth010.222.138.200, vip eth0:1: 10.222.138.10)
real server1(eth0 rip: 10.222. 138.201, vip lo:0: 10.222.138.10)
real server2(eth0 rip: 10.222.138.202, vip lo:0: 10.222.138.10)
 
dr上执行:
ipvsadm -C
ifconfig eth0:1  down
 
前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常。所以需要有一种机制用来检测real server的状态,这就是keepalived。它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived可以实现ha集群的功能,当然了也需要一台备用director.
 
备用director也需要安装一下keepalived软件
yum install -y keepalived (分别在2台director 上面安装)
 
dir master:
[root@dir network-scripts]# vim /etc/keepalived/keepalived.conf

vrrp_instance VI_1 {
state MASTER #备用服务器上为 BACKUP
interface eth0
virtual_router_id 51
priority 100 #备用服务器上为90
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
10.222.138.10
}
}
virtual_server 10.222.138.10 80 {
delay_loop 6 #(每隔10秒查询realserver状态)
lb_algo rr #(lvs 算法)
lb_kind DR #(Direct Route)
persistence_timeout 00 #(同一IP的连接60秒内被分配到同一台realserver)
protocol TCP #(用TCP协议检查realserver状态)

real_server 10.222.138.201 80 {
weight 100 #(权重)
TCP_CHECK {
connect_timeout 10 #(10秒无响应超时)
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 10.222.138.202 80 {
weight 100
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
}

 

 

以上为主director的配置文件,从director的配置文件只需要修改
state MASTER  -> state BACKUP
priority 100 -> priority 90
 

dir backup :

[root@dir02 ~]# vim /etc/keepalived/keepalived.conf

vrrp_instance VI_1 {
state BACKUP #备用服务器上为 BACKUP
interface eth0
virtual_router_id 51
priority 90 #备用服务器上为90
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
10.222.138.10
}
}
virtual_server 10.222.138.10 80 {
delay_loop 6 #(每隔10秒查询realserver状态)
lb_algo rr #(lvs 算法)
lb_kind DR #(Direct Route)
persistence_timeout 00 #(同一IP的连接60秒内被分配到同一台realserver)
protocol TCP #(用TCP协议检查realserver状态)

real_server 10.222.138.201 80 {
weight 100 #(权重)
TCP_CHECK {
connect_timeout 10 #(10秒无响应超时)
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 10.222.138.202 80 {
weight 100
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
}

 

配置完keepalived后,需要开启端口转发(主从都要做):
echo 1 > /proc/sys/net/ipv4/ip_forward
 
然后,两个rs上执行 /usr/local/sbin/lvs_dr_rs.sh 脚本  (配置文件上次lvs-dr实验已建立)
 

[root@rs1 ~]# cat /usr/local/sbin/lvs_rs.sh
#! /bin/bash
vip=10.222.138.10
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

 
最后,两个director上启动keepalived服务(先主后从):
/etc/init.d/keepalived start
 
另外,需要注意的是,启动keepalived服务会自动生成vip和ipvsadm规则,不需要再去执行上面提到的/usr/local/sbin/lvs_dr.sh 脚本。
 
测试: 关闭其中一台rs1的nginx服务, 客户端访问时只达到rs2,比较智能。
 
关闭 dir上的keepalived, 备用的keepalived开始启用。
 
做到可负载均衡和高可用的结合。
posted @ 2017-08-21 14:35  Oops!#  阅读(315)  评论(0编辑  收藏  举报