heartbeat+nginx搭建高可用HA集群
前言:
HA即(high available)高可用,又被叫做双机热备,用于关键性业务。简单理解就是,有2台机器 A 和 B,正常是 A 提供服务,B 待命闲置,当 A 宕机或服务宕掉,会切换至B机器继续提供服务。常见的实现高可用的开源软件有 heartbeat 和 keepalived。
这样,一台 web 服务器一天24小时提供web服务,难免会存在 web 服务挂掉或服务器宕机宕机的情况,那么用户就访问不了服务了,这当然不是我们期望的。如果这样,有2台服务器,A对外提供 web 服务,B作为备用,如果A挂掉,那么B立刻替代A的位置去提供 web 服务,这样对用户来说是透明的。但是有个问题,服务器A的 ip 是 10.0.0.100,服务器B的 ip 是 10.0.0.101,显然向用户提供A或B的ip地址是不可行的,因为用户总不能去切换ip来访问的吧。这时heartbeat或keepalived可以提供一个虚拟IP:10.0.0.102,用户只需要访问 10.0.0.102,当A提供服务时,VIP 会设置在A服务器上,当B提供服务时,VIP会设置在B服务器上,这样就可以让用户通过访问 10.0.0.102 来获取web服务,即使A或B服务器切换也不影响用户的正常访问。
名词解释:
HA=high available
VIP=虚拟IP
准备环境:
服务器DBMaster:
主机名:dbmaster
操作系统:CentOS6.5
eth0 IP0:192.168.150.3
eth0 IP1:192.168.150.33
服务器DBSlave:
主机名:slave
操作系统:CentOS6.5
eth0 IP0:192.168.150.4
eth0 IP1:192.168.150.44
漂移VIP:192.168.150.253(也就是要访问的IP)
S1:设置主机名:
dbmaster节点设置hostname
#hostname dbmaster #vim /etc/sysconfig/network 编辑配置文件: HOSTNAME=dbmaster
dbslave节点设置hostname
# hostname dbslave # vim /etc/sysconfig/network 编辑配置文件: HOSTNAME=dbslave
S2:关闭防火墙和selinux(2台节点都要操作)
关闭iptables
# iptables -F # service iptables save # service iptables stop
关闭selinux:
# setenforce 0 # sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config
S3:配置hosts文件(2台节点都操作)
# vim /etc/hosts 增加内容如下: 192.168.150.3 dbmaster 192.168.150.4 dbslave
S4:安装epel扩展源 (2台都操作)
# yum install -y epel-release
S5:安装heartbeat (2台都操作)
# yum install -y heartbeat* libnet nginx
S4+S5或可为如下操作
#rpm -ivh http://www.lishiming.net/data/attachment/forum/epel-release-6-8_32.noarch.rpm yum list|grep heartbeat yum -y install heartbeat* 安装资源包nginx和heartbeat的依赖包libnet和libxml yum -y install nginx yum -y install libnet*
S6:主dbmaster节点配置
1、拷贝配置文件:
# cd /usr/share/doc/heartbeat-3.0.4/ # cp authkeys ha.cf haresources /etc/ha.d/ # cd /etc/ha.d
2、修改authkeys
# vim authkeys 更改或增加如下内容: auth 3 3 md5 Hello! 然后修改其权限 # chmod 600 authkeys
3、编辑haresources文件
# vim haresources 加入下面一行: dbmaster 192.168.150.253/24/eth0:0 nginx
说明:dbmaster为主节点hostname,192.168.150.253为飘vip,/24为掩码为24的网段,eth0:0为vip的设备名,nginx为heartbeat监控的服务,也是两台机器对外提供的核心服务。
4、编辑ha.cf
# vim ha.cf 修改为如下内容: debugfile /var/log/ha-debug logfile /var/log/ha-log logfacility local0 keepalive 2 deadtime 30 warntime 10 initdead 60 udpport 694 ucast eth0 192.168.150.44 auto_failback on node dbmaster node dbslave ping 192.168.150.253 respawn hacluster /usr/lib64/heartbeat/ipfail
5、配置说明:
debugfile /var/log/ha-debug:该文件保存heartbeat的调试信息。
logfile /var/log/ha-log:heartbeat的日志文件。
keepalive 2:心跳的时间间隔,默认时间单位为秒s。
deadtime 30:超出该时间间隔未收到对方节点的心跳,则认为对方已经死亡。
warntime 10:超出该时间间隔未收到对方节点的心跳,则发出警告并记录到日志中。
initdead 60:在某系统上,系统启动或重启之后需要经过一段时间网络才能正常工作,该选项用于解决这种情况产生的时间间隔,取值至少为deadtime的2倍。
udpport 694:设置广播通信使用的端口,694为默认使用的端口号。
ucast eth0 192.168.150.44:设置对方机器心跳检测的网卡和IP。
auto_failback on:heartbeat的两台主机分别为主节点和从节点。主节点在正常情况下占用资源并运行所有的服务,遇到故障时把资源交给从节点由从节点运行服务。在该选项设为on的情况下,一旦主节点恢复运行,则自动获取资源并取代从节点,否则不取代从节点。
ping 192.168.150.253:设置的漂移IP。
respawn heartbeat /usr/lib/heartbeat/ipfail:指定与heartbeat一同启动和关闭的进程,该进程被自动监视,遇到故障则重新启动。最常用的进程是ipfail,该进程用于检测和处理网络故障,需要配合ping语句指定的ping node来检测网络连接。如果你的系统是64bit,请注意该文件的路径。
S7:把主节点上的三个配置文件拷贝到从节点
# cd /etc/ha.d # scp authkeys ha.cf haresources dbslave:/etc/ha.d
S8:从节点dbslave编辑ha.cf
# vim /etc/ha.d/ha.cf 只需要更改一个地方如下:如下IP为对方机器的心跳IP ucast eth0 192.168.150.33
S9:启动heartbeat服务
配置完毕后,先master启动,后slave启动。启动后要稍后5-10秒左右可以看到nginx的进程。
# service heartbeat start
S10:检查测试
# ifconfig 看是否有接口 eth0:0 # ps aux | grep nginx 看是否有nginx进程
主节点停止heartbeat服务
# service heartbeat stop
总结:
1、我是在两台服务器上分别部署了tomcat,一样的部署方式及一样的程序,仅是首页的出现的问题一个是dbmaster另一个是dbslave,使用第三台机器访问“http://192.168.150.253:端口/项目名”时可以发现首页的文字是dbmaster,当停掉master服务器的heartbeat时,再刷新页面会发现已经是slave字样。
2、如果启动heartbeat过程中出现 Resource is stopped 可以忽略。