Rabbitmq +Haproxy +keepalived 实现高可用集群

 

 搭建rabbitmq的高可用集群,分三步走:

  

1)搭建rabbitmq集群:

多机集群搭建

1.安装单机版的 教程:《Linux下安装rabbitmq》

(安装rpm包或者源码包,这里简单介绍下安装rpm包)

wget http://www.rabbitmq.com/releases/rabbitmq-server/v3.5.1/rabbitmq-server-3.5.1-1.noarch.rpm
rpm -i --nodeps rabbitmq-server-3.5.1-1.noarch.rpm


3、安装RabbitMQ
rpm -ivh rabbitmq-server-3.5.1-1.noarch.rpm
或
$$$    rpm -ivh --nodeps --force rabbitmq-server-3.5.1-1.noarch.rpm

启动RabbitMQ:
/etc/init.d/rabbitmq-server start
或
service rabbitmq-service start

打开web管理插件
rabbitmq-plugins enable rabbitmq_management
管理界面地址:http://127.0.0.1:15672/

MQ新建用户
rabbitmqctl add_user admin  admin

授权
rabbitmqctl set_user_tags admin administrator
rabbitmqctl set_permissions -p "/" admin".*" ".*" ".*"

 

 

注意:不同于单机多节点的情况,在多机环境,如果要在cluster集群内部署多个节点,需要注意两个方面:
1)保证需要部署的这几个节点在同一个局域网内
2)需要有相同的Erlang Cookie,否则不能进行通信,为保证cookie的完全一致,采用从一个节点copy的方式,下面就会使用这种方式


2.要搭建集群,先将之前单机版中历史记录干掉,删除rabbitmq/var/lib/rabbitmq/mnesia下的所有内容。


3.分别在192.168.1.103   192.168.1.104  192.168.1.105节点上安装rabbitmq server。


4.在浏览器访问每一个rabbitmq实例,是够可以显示登录页面,如果显示成功,继续往下进行。


5.设置不同节点间同一认证的Erlang Cookie 
将192.168.1.103上的rabbitmq/var/lib/rabbitmq/.erlang.cookie中的内容复制到192.168.1.104和192.168.1.105上的rabbitmq/var/lib/rabbitmq/.erlang.cookie文件中,

即三台服务器必须具有相同的cookie,如果不相同的话,无法搭建集群

注意:
官方在介绍集群的文档中提到过.erlang.cookie一般会存在这两个地址:第一个是$home/.erlang.cookie也就是/root 目录下,

第二个地方就是/var/lib/rabbitmq/.erlang.cookie。
如果我们使用解压缩方式安装部署的rabbitmq,那么这个文件会在$home目录下,也就是$home/.erlang.cookie。
如果我们使用rpm等安装包方式进行安装的,那么这个文件会在/var/lib/rabbitmq目录下。

 

6.分别在三个节点的/etc/hosts下设置相同的配置信息,然后重启机器
192.168.1.103 rabbit1
192.168.1.104 rabbit2
192.168.1.105 rabbit3
重启之后[root@localhost ~]# 改为[root@rabbit1 ~]# hostname就会生效

 

7.使用 -detached运行各节点
rabbitmq-server -detached


8.创建集群
        1)rabbit1为主节点,另外两个为从节点搭建,主节点不用动,只在两个从节点运行如下命令,我这里只举一个节点(rabbit2)的例子,rabbit3执行相同的命令
         [root@rabbit2 rabbitmq]# rabbitmqctl stop_app
         Stopping rabbit application on node rabbit@rabbit2 ...
         [root@rabbit2 rabbitmq]# rabbitmqctl reset
         Resetting node rabbit@rabbit2 ...
         [root@rabbit2 rabbitmq]# rabbitmqctl join_cluster rabbit@rabbit1
         Clustering node rabbit@rabbit2 with rabbit@rabbit1 ...
         [root@rabbit2 rabbitmq]# rabbitmqctl start_app
         Starting node rabbit@rabbit2 ...


         2)使用rabbitmqctl cluster_status查看集群状态
         [root@rabbit2 rabbitmq]# rabbitmqctl cluster_status
         Cluster status of node rabbit@rabbit2 ...
         [{nodes,[{disc,[rabbit@rabbit1,rabbit@rabbit2]}]},
         {running_nodes,[rabbit@rabbit1,rabbit@rabbit2]},
         {cluster_name,<<"rabbit@rabbit2">>},
         {partitions,[]},
         {alarms,[{rabbit@rabbit1,[]},{rabbit@rabbit2,[]}]}]

 

9.我这里创建完成之后,之前的admin用户无法使用了,重新添加用户,参考之前搭建单机版的命令


10.使用刚才的账号密码登录,出现界面,表示成功。

 

二)安装haproxy 

.Haproxy负载代理
          1)在192.168.1.101和192.168.1.102节点上安装haproxy
yum install haproxy
          2)修改/etc/haproxy/haproxy.cfg为以下内容,全覆盖,修改对应的端口号

#---------------------------------------------------------------------
# Global settings
#---------------------------------------------------------------------
global
log 127.0.0.1 local2
chroot /var/lib/haproxy # 改变当前工作目录
pidfile /var/run/haproxy.pid # haproxy的pid存放路径,启动进程的用户必须有权限访问此文件
maxconn 4000 # 最大连接数,默认4000
user haproxy # 默认用户
group haproxy # 默认组
daemon # 创建1个进程进入deamon模式运行。此参数要求将运行模式设置为daemon
stats socket /var/lib/haproxy/stats # 创建监控所用的套接字目录
#---------------------------------------------------------------------
# defaults settings
#---------------------------------------------------------------------
# 注意:因为要使用tcp的负载,屏蔽掉与http相关的默认配置
defaults
mode http # 默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OK
log global
# option httplog # 采用http日志格式
option dontlognull # 启用该项,日志中将不会记录空连接。所谓空连接就是在上游的负载均衡器
# option http-server-close # 每次请求完毕后主动关闭http通道
# option forwardfor except 127.0.0.0/8 # 如果后端服务器需要获得客户端真实ip需要配置的参数,可以从Http Header中获得客户端ip
option redispatch # serverId对应的服务器挂掉后,强制定向到其他健康的服务器
retries 3 # 3次连接失败就认为服务不可用,也可以通过后面设置
# timeout http-request 10s 
timeout queue 1m
timeout connect 10s # 连接超时时间
timeout client 1m # 客户端连接超时时间
timeout server 1m # 服务器端连接超时时间
# timeout http-keep-alive 10s
timeout check 10s 
maxconn 3000 # 最大连接数
###################### 打开haproxy的监测界面###############################
listen status
bind 0.0.0.0:9188
mode http
stats enable
stats refresh 30s
stats uri /stats #设置haproxy监控地址为http://localhost:9188/stats
stats auth admin:123456 #添加用户名密码认证
stats realm (Haproxy\ statistic)
stats admin if TRUE
######################监听rabbitmq的web操作页面############################
listen rabbitmq_admin 
bind 0.0.0.0:15670
server rabbit1 192.168.1.102:15672
server rabbit2 192.168.1.101:15672
server rabbit3 192.168.1.101:15673
#######################监听rabbimq_cluster #################################
listen rabbitmq_cluster
bind 0.0.0.0:5670
mode tcp
balance roundrobin #负载均衡算法(#banlance roundrobin 轮询,balance source 保存session值,支持static-rr,leastconn,first,uri等参数)
server rabbit1 192.168.1.102:5672 check inter 5000 rise 2 fall 2 #check inter 2000 是检测心跳频率
server rabbit2 192.168.1.101:5672 check inter 5000 rise 2 fall 2 #rise 2是2次正确认为服务器可用
server rabbit3 192.168.1.101:5673 check inter 5000 rise 2 fall 2 #fall 2是2次失败认为服务器不可用

 

 3)启动haproxy
haproxy -f /etc/haproxy/haproxy.cfg
service haproxy restart#重启
service haproxy stop#停止
4)两个ip分别访问以下地址,出现以下页面证明没错

浏览器访问:192.168.0.101:15670  和 192.168.0.101:9188/stats

 

三)安装配置keepalived

1)安装keepalived
yum install keepalived
chkconfig --add keepalived#设置开机启动,可以不用设置

 

 2)修改/etc/keepalived/keepalived.conf配置文件,主机和备机稍有不同,已经在配置文件中声明,请详细阅读!

#Keepalived配置文件

global_defs {
router_id NodeA #路由ID, 主备的ID不能相同
}

#自定义监控脚本
vrrp_script chk_haproxy {
script "/etc/keepalived/check_haproxy.sh"
interval 5
weight 2
}

vrrp_instance VI_1 {
state MASTER #Keepalived的角色。Master表示主服务器,从服务器设置为BACKUP
interface eth0 #指定监测网卡
virtual_router_id 1
priority 100 #优先级,BACKUP机器上的优先级要小于这个值
advert_int 1 #设置主备之间的检查时间,单位为s
authentication { #定义验证类型和密码
auth_type PASS
auth_pass root123
}
track_script {
chk_haproxy
}
virtual_ipaddress { #VIP地址,可以设置多个:
192.168.0.10
}
}

 

Backup中的配置大致和Master中的相同,不过需要修改global_defs{}的router_id,比如置为NodeB;其次要修改vrrp_instance VI_1{}中的state为BACKUP;最后要将priority设置为小于100的值。注意Master和Backup中的virtual_router_id要保持一致。下面简要的展示下Backup的配置:

global_defs {
router_id NodeB
}
vrrp_script chk_haproxy {
...
}
vrrp_instance VI_1 {
state BACKUP
...
priority 50
...
}

 

为了防止HAProxy服务挂了,但是Keepalived却还在正常工作而没有切换到Backup上,所以这里需要编写一个脚本来检测HAProxy服务的状态。当HAProxy服务挂掉之后该脚本会自动重启HAProxy的服务,如果不成功则关闭Keepalived服务,如此便可以切换到Backup继续工作。这个脚本就对应了上面配置中vrrp_script chk_haproxy{}的script对应的值,/etc/keepalived/check_haproxy.sh的内容如代码清单所示。

#!/bin/bash
if [ $(ps -C haproxy --no-header | wc -l) -eq 0 ];then
haproxy -f /etc/haproxy/haproxy.cfg
fi
sleep 2
if [ $(ps -C haproxy --no-header | wc -l) -eq 0 ];then
service keepalived stop
fi

 

 

  3)启动服务
因为是为了实现haproxy的高可用,启动时需要顺序启动:
(1) 启动两个节点的haproxy:
haproxy -f /etc/haproxy/haproxy.cfg
(2) 启动keeepalived:先启动master节点,后启动BACKUP节点
keepalived start

如此配置好之后,使用service keepalived start命令启动192.168.0.8和192.168.0.9中的Keepalived服务即可。之后客户端的应用可以通过192.168.0.10这个IP地址来接通RabbitMQ服务。

Master启动之后可以通过ip add show命令查看添加的VIP(加粗部分,Backup节点是没有VIP的):

 

参考文章: https://blog.csdn.net/qq_34021712/article/details/72634167

    https://blog.csdn.net/u013256816/article/details/77171017

 

posted @ 2020-01-20 11:05  孤独信徒  阅读(1651)  评论(0编辑  收藏  举报