MHA实现MySQL的高可用性

MHA:MHA Master High Availability

对主节点进行监控,可实现自动故障转移至其它从节点;通过提升某一从节点为新的主节点,基于主从复制实现,还需要客户端配合实现。

目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库

MHA工作原理:
  • 1.MHA利用select 1 as value指定判断master的健康情况。

  • 2.如果master宕机,MHA就会从这个宕机的master中保存二进制日志

  • 3.找到从节点中谁的数据是最新的

  • 4.应用差异的中继日志(relay log)到其他的slave(最近的slave给其他slave同步)

  • 5.应用从master保存的二进制日志事件(binlog events)

  • 6.将这个slave提升为master,并使其他salve连接到新的master

注意:MHA不支持centos8(管理节点可以用centos7实现)

MHA官网网站:

https://code.google.com/archive/p/mysql-master-ha/

https://github.com/yoshinorim/mha4mysql-manager/releases

https://github.com/yoshinorim/mha4mysql-node/releases/tag/v0.58

MHA软件的组成:
  • 由Manager工具包和Node工具包组成。

  • master节点需要安装manager和node两个工具包

  • slave节点只需要安装node工具包

实现 MHA

  • 1.配置节点的master和slave

  • 2.配置mha的管理节点

  • 3.配置节点基于key验证

  • 4.在master上设置vip

  • 5.在master上检查配置是否正确

  • 6.开启mha

管理节点:CentOS7 10.0.0.132

master:CentOS8 10.0.0.10

slave1: CentOS8 10.0.0.13

slave2: CentOS8 10.0.0.14
1.实现主从复制架构

master:

#配置server_id和开启二进制日志
[root@CentOS8 binlog]# cat /etc/my.cnf
[client-server]
# include all files from the config directory
!includedir /etc/my.cnf.d

[mysqld]
server_id=10 #配置serverid
log_bin=/data/binlog/mysql-bin #开启二进制日志并指定存放位置和前缀
skip_name_resolve=1 # #禁止反向解析(不加的话ip过来回尝试解析为名称)
general_log #开启通用日志 默认的存放路径和前缀

创建用于复制的账号repluser和用户,建立一个单独的账号 mhauser,用来管理管理mysql的服务配置
mysql> create user repluser@'10.0.0.%' identified by 'redhat';
mysql> grant replication slave on *.* to repluser@'10.0.0.%'

mysql>create user mhauser@'10.0.0.%' identified by 'redhat';
mysql>grant all on *.* to mhauser@'10.0.0.%' ;

mysql> flush privileges;

slave1:

#开启二进制日志和配置server_id
[root@CentOS8 ~]# cat /etc/my.cnf

[client-server]
#
# include all files from the config directory
#
!includedir /etc/my.cnf.d

[mysqld]
server_id=13
log_bin=/data/binlog/mysql-bin
general_log
skip_name_resolve=1

slave连接到master

mysql> change master to 
> master_host="10.0.0.10",
> master_port=3306,
> master_user="repluser",
> master_ password="redhat",
> master_log_file='mysql-bin.000001',
> master_log_pos=156;

slave2:

操作同slave1
2.管理节点配置:
#配置yum源
[root@CentOS7 ~]# yum -y install epel-release
[root@CentOS7 ~]# yum clean all
[root@CentOS7 ~]# yum makecache

#安装manager和node
[root@CentOS7 ~]# yum -y install mha4mysql-manager-0.58-0.el7.centos.noarch.rpm

[root@CentOS7 ~]# yum -y install mha4mysql-node-0.58-0.el7.centos.noarch.rpm

在管理节点建立配置文件

[server default]
user=mhauser        #用于远程连接MySQL所有节点的用户,需要有管理员的权限

password=redhat

manager_workdir=/data/mastermha/app1/   #目录会自动生成,无需手动创建

manager_log=/data/mastermha/app1/manager.log

remote_workdir=/data/mastermha/app1/

ssh_user=root       #用于实现远程ssh基于KEY的连接,访问二进制日志

repl_user=repluser  #主从复制的用户信息

repl_password=redhat

ping_interval=1     #健康性检查的时间间隔

master_ip_failover_script=/usr/local/bin/master_ip_failover   #切换VIP的perl脚本

report_script=/usr/local/bin/sendmail.sh  #当执行报警脚本,发送邮件通知

check_repl_delay=0   #默认值为1,表示如果slave中从库落后主库relay log超过100M,主库不会选择这个从库为新的master,因为这个从库进行恢复需要很长的时间.通过设置参数check_repl_delay=0,mha触发主从切换时会忽略复制的延时,对于设置candidate_master=1的从库非常有用,这样确保这个从库一定能成为最新的master

master_binlog_dir=/data/mysql/  #指定二进制日志存放的目录,mha4mysql-manager-0.58必须指定,之前版本不需要指定

[server1]
hostname=10.0.0.10
candidate_master=1

[server2]
hostname=10.0.0.13
candidate_master=1   #设置为优先候选master,即使不是集群中事件最新的slave,也会优先当master

[server3]
hostname=10.0.0.14

说明: 主库宕机谁来接管新的master

1. 所有从节点日志都是一致的,默认会以配置文件的顺序去选择一个新主

2. 从节点日志不一致,自动选择最接近于主库的从库充当新主

3. 如果对于某节点设定了权重(candidate_master=1),权重节点会优先选择。但是此节点日志量落后主库超过100M日志的话,也不会被选择。可以配合check_repl_delay=0,关闭日志量的检查,强制选择候选节点

切换VIP的perl脚本:
只需要修改VIP和Gate网关还有指定网卡就行了。脚本里面不能出现注等内容,不然会报错。

[root@CentOS7 ~]#  vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);

my $vip = '10.0.0.100/24';
my $gateway = '10.0.0.2';
my $interface = 'eth0';
my $key = "1";
my $ssh_start_vip = "/sbin/ifconfig $interface:$key $vip;/sbin/arping -I 
$interface -c 3 -s $vip $gateway >/dev/null 2>&1";
my $ssh_stop_vip = "/sbin/ifconfig $interface:$key down";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
# $orig_master_host, $orig_master_ip, $orig_master_port are passed.
# If you manage master ip address at global catalog database,
# invalidate orig_master_ip here.
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code; }
exit $exit_code; }
elsif ( $command eq "start" ) {
# all arguments are passed.
# If you manage master ip address at global catalog database,
# activate new_master_ip here.
# You can also grant write access (create user, set read_only=0, etc) here.
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code; }
exit $exit_code; }
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
`ssh $ssh_user\@$orig_master_host \" $ssh_start_vip \"`;
exit 0; }
else {
&usage();
exit 1; }}
# A simple system call that enable the VIP on the new master
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`; }
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --
orig_master_host=host --orig_master_ip=ip --orig_master_port=port --
new_master_host=host --new_master_ip=ip --new_master_port=port\n"; }

给脚本添加可执行权限:

[root@centos7 ~] #chmod +x /usr/local/bin/master_ip_failover
在master上配置VIP:
[root@CentOS8 ~]# ifconfig eth0:1 10.0.0.100/24
所有ssh基于key验证
[root@CentOS8 ~]# ssh-keygen
[root@CentOS8 ~]# ssh-copy-id 127.0.0.1
[root@CentOS8 ~]# rsync -av .ssh 10.0.0.13:/root/
[root@CentOS8 ~]# rsync -av .ssh 10.0.0.14:/root/
[root@CentOS8 ~]# rsync -av .ssh 10.0.0.132:/root/
检验配置是否正确
#检查环境
[root@CentOS8 ~]# masterha_check_ssh --conf=/etc/mastermha/app1.cnf
[root@CentOS8 ~]# masterha_check_repl --conf=/etc/mastermha/app1.cnf

#查看状态
[root@CentOS8 ~]# masterha_check_status --conf=/etc/mastermha/app1.cnf
开启myha
#开启MHA,默认是前台运行,生产环境一般为后台执行
nohup masterha_manager --conf=/etc/mastermha/app1.cnf &> /dev/null

#查看状态
masterha_check_status --conf=/etc/mastermha/app1.cnf

排错日志

tail /data/mastermha/app1/manager.log
测试:
#停止mster服务
[root@CentOS8 ~]# systemctl stop mysqld.serverice

#当 master down机后,mha管理程序自动退出

#查看mha状态
[root@CentOS8 ~]# masterha_check_status --conf=/etc/mastermha/app1.cnf
app1 is stopped(2:NOT_RUNNING).

这个时候已经重新选了一个master主节点并且vip漂到对应的master节点上去了

注意:

如果再次运行MHA,需要先删除下面文件

[root@mha-manager ~]#ls /data/mastermha/app1/app1.failover.complete -l
-rw-r--r-- 1 root root 0 Aug 29 21:28 /data/mastermha/app1//app1.failover.complete

[root@mha-manager ~]#rm -f /data/mastermha/app1/app1.failover.complete

posted on 2022-09-28 22:43  背对背依靠  阅读(94)  评论(0编辑  收藏  举报