MYSQL数据库基于MHA的高可用

 MYSQL数据库基于MHA的高可用
MHA :HA表示高可用,M表示master
一、MHA 简介
MHA(Master High Availability)目前在 MySQL 高可用方面是一个相对成熟的解决方案,
是一套优秀的作为 MySQL 高可用性环境下故障切换和主从角色提升的高可用软件。在 MySQL 故障切换过程中,MHA 能做到在 0~30 秒之内自动完成数据库的主从故障切换操作,并且在进行故障切换的过程中,MHA 能在最大程度上保证数据的一致性,以达到真正意义上的高可用。
MHA 由两部分组成:MHA Manager(管理节点)和 MHA Node(数据节点)。MHA Manager可以单独部署在一台独立的机器上管理多个 master-slave 集群,也可以部署在一台 slave 节点上。MHA Node 运行在每台 MySQL 服务器及 Manager 服务器上,MHA Manager 会定时探测集群中的 master 节点,当 master 出现故障时,它可以自动将拥有最新数据的 slave 提升为新的 master,然后将所有其他的 slave 重新指向新提升的 master。整个故障转移过程对应用程序层面完全透明。
在 MHA 自动故障切换过程中,MHA 会试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失,但这种操作是有概率性的。MHA 可以与半同步复制结合起来。如果只有一个 slave 已经收到了最新的二进制日志,MHA 可以将最新的二进制日志应用于其他所有的slave 服务器上,因此可以保证所有节点的数据一致性。
目前 MHA 主要支持一主多从的架构,要搭建 MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当 master,一台充当备用 master,另外一台充当从库,因为至少需要三台服务器,出于机器成本的考虑,淘宝也在该基础上进行了改造,目前淘宝 TMHA 已经支持一主一从。
 
1、工作流程
从宕机崩溃的 master 上尝试保存二进制日志事件(binlog events);
识别含有最新更新的 slave 服务器;
应用差异的中继日志(relay log)到其他的 slave;
应用从 master 保存的二进制日志事件(binlog events);
提升一个 slave 为新的 master 服务器;
将其他的 slave 连接指向新的 master 进行主从复制
2、MHA 工具介绍
MHA 软件由两部分组成,Manager 工具包和 Node 工具包,具体的说明如下。
Manager 工具包主要包括以下几个工具:
masterha_check_ssh 检查 MHA 的 SSH 配置状况
masterha_check_repl 检查 MySQL 复制状况
masterha_manger 启动 MHA
masterha_check_status 检测当前 MHA 运行状态
masterha_master_monitor 检测 master 是否宕机
masterha_master_switch 控制故障转移(自动或者手动)
masterha_conf_host 添加或删除配置的 server 信息
Node 工具包(这些工具通常由 MHA Manager 的脚本触发,无需人为操作)主要包括以下几个工具:
save_binary_logs 保存和复制 master 的二进制日志
apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的slave
filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)
 
=========================================
keepalived 作用:支持故障自动切换,支持节点健康检查。(模式:抢占和非抢占)
--------------------------------------------------------------------------
==========================================================
MHA高可用实验
7台服务器              IP地址     主机名      ServerID    数据库类型
Manager              192.168.200.66       server01         -           监控复制组
Primary Master     192.168.200.67         server02         1             写 入
Secondary Master 192.168.200.68         server03         2             写 入
Slave1                  192.168.200.69         server04         3               读
Slave2                  192.168.200.70         server05         4               读
LVS Master           192.168.200.71         localhost         -
LVS Backup          192.168.200.72         localhost         -
==========================================================
实验步骤推荐
【1】配置各主机的主机名
【2】配置各主机名映射
【3】关闭防火墙和selinux安全机制
【4】安装Epel yum 源
【5】安装MHA node (5台机器都要装 保护数据库之间架构)
【6】安装MHA Manager(只有manager装)
【7】配置SSH密钥对验证
【8】源码包安装mysql
【9】搭建主从复制环境
【10】配置MHA环境
【11】搭建VIP管理方式,基于keepalived控制,基于Perl脚本控制
【12】配置读请求负载均衡
===========================================================
【1】配置各主机的主机名
manager 主机:
hostname server01
bash
master1 主机:
hostname server02
bash
master2 主机:
hostname server03
bash
slave1 主机:
hostname server04
bash
slave2 主机:
hostname server05
bash
-------------------------------------------------------------------------------------------------------------
【2】配置各主机名映射
manager 主机:
 vim /etc/hosts
192.168.200.66 server01
192.168.200.67 server02
192.168.200.68 server03
192.168.200.69 server04
192.168.200.70 server05
scp /etc/hosts 192.168.200.67:/etc/
scp /etc/hosts 192.168.200.68:/etc/
scp /etc/hosts 192.168.200.69:/etc/
scp /etc/hosts 192.168.200.70:/etc/
--------------------------------------------------------------------------------------------------------------
【3】关闭防火墙和selinux安全机制
iptables -F
systemctl stop firewalld
setenforce 0
--------------------------------------------------------------------------------------------------------------
【4】安装Epel yum 源 《《 下载 mha-manager 和 mha-node
http://downloads.mariadb.com/MHA/》》
66manager 上传  mha4mysql-manager-0.56.tar.gz、mha4mysql-node-0.56.tar.gz 、perl-Config-Tiny-2.14-7.e17.noarch.rpm
67、68、69、70主机上传mha4mysql-node-0.56.tar.gz 、perl-Config-Tiny-2.14-7.e17.noarch.rpm
--------------------------------------------------------------------------------------------------------------
【5】安装MHA node
【5.1】所有主机安装 MHA node 及相关 perl 依赖包
所有主机上传epel源安装包并进行安装
rpm -ivh epel-release-latest-7.noarch.rpm
yum install -y perl-DBD-MySQL.x86_64 perl-DBI.x86_64 perl-CPAN perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker   //安装依赖包
rpm -q perl-DBD-MySQL.x86_64 perl-DBI.x86_64 perl-CPAN perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker   //注意:安装后建议检查一下所需软件包是否全部安装
【5.2】所有主机上安装 MHA Node
tar xf mha4mysql-node-0.56.tar.gz
cd mha4mysql-node-0.56/
perl Makefile.PL
make && make install
ls -l /usr/local/bin/    //检查是否有以下工具
-r-xr-xr-x 1 root root 16346 12 月 29 15:07 apply_diff_relay_logs
-r-xr-xr-x 1 root root 4807 12 月 29 15:07 filter_mysqlbinlog
-r-xr-xr-x 1 root root 7401 12 月 29 15:07 purge_relay_logs
-r-xr-xr-x 1 root root 7395 12 月 29 15:07 save_binary_logs
--------------------------------------------------------------------------------------------------------------
【6】安装MHA Manager(只有manager装)在66主机
 注意:安装 MHA Manger 之前也需要安装 MHA Node
【6.1】首先安装 MHA Manger 依赖的 perl 模块(我这里使用 yum 安装)
yum install -y perl perl-Log-Dispatch perl-Parallel-ForkManager perl-DBD-MySQL perl-DBI perl-Time-HiRes
yum -y install perl-Config-Tiny-2.14-7.el7.noarch.rpm   ///单独安装
rpm -q perl  perl-Log-Dispatch perl-Parallel-ForkManager perl-DBD-MySQL perl-DBI perl-Time-HiRes perl-Config-Tiny   //检查是否全部安装成功
【6.2】安装 MHA Manger 软件包
tar xf mha4mysql-manager-0.56.tar.gz
cd mha4mysql-manager-0.56/
perl Makefile.PL
make && make install
【6.3】安装完成后会有以下脚本文件
ls -l /usr/local/bin/     //会发现多了很多的工具包
--------------------------------------------------------------------------------------------------------------
【7】配置SSH密钥对验证
 服务器之间需要实现密钥对验证。关于配置密钥对验证可看下面步骤。但是有一点需要
注意:不能禁止 password 登陆,否则会出现错误
1. 服务器先生成一个密钥对
2. 把自己的公钥传给对方
【7.1】在66 manager主机上创建密钥对
ssh-keygen -t rsa
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.67
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.68
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.69
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.70
注意:Server01 需要连接每个主机测试,因为第一次连接的时候需要输入 yes,影响后期故障切换时,对于每个主机的 SSH 控制
【7.2】在66主机上登陆一下,看这4台是否登录成功
ssh server02
ssh server03
ssh server04
ssh server05
【7.3】在67主机Primary Master(192.168.200.67):上生成密钥对
ssh-keygen -t rsa
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.68
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.69
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.70
【7.4】在68主机Secondary Master(192.168.200.68):上生成密钥对
ssh-keygen -t rsa
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.67
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.69
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.70
【7.5】在69主机slave1(192.168.200.69):上生成密钥对
ssh-keygen -t rsa
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.67
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.68
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.70
【7.6】在70主机slave2(192.168.200.70):上生成密钥对
ssh-keygen -t rsa
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.67
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.68
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.69
--------------------------------------------------------------------------------------------------------------
【8】源码包安装mysql
【8.1】主机67、68、69、70上分别进行操作
yum -y install mariadb mariadb-server mariadb-devel
systemctl start mariadb
netstat -lnpt | grep :3306
【8.2】设置数据库初始密码(后续操作中使用)
mysqladmin -u root password 123456
--------------------------------------------------------------------------------------------------------------
【9】搭建主从复制环境
注意:binlog-do-db 和 replicate-ignore-db 设置必须相同。 MHA 在启动时候会检测过滤规则,如果过滤规则不同,MHA 将不启动监控和故障转移功能。
【9.1】修改主机67Primary Master数据库的主配置文件
vim /etc/my.cnf
[mysqld]
server-id = 1
log-bin=master-bin
log-slave-updates=true
relay_log_purge=0
保存退出
systemctl restart mariadb
【9.2】修改主机68 Secondary Master数据库的主配置文件
vim /etc/my.cnf
[mysqld]
server-id =2
log-bin=master-bin
log-slave-updates=true
relay_log_purge=0
保存退出
systemctl restart mariadb
【9.3】修改主机69 slave1数据库的主配置文件
vim /etc/my.cnf
[mysqld]
server-id = 3
log-bin=mysql-bin
relay-log=slave-relay-bin
log-slave-updates=true
relay_log_purge=0
保存退出
systemctl restart mariadb
【9.4】修改主机70slave2数据库的主配置文件
vim /etc/my.cnf
[mysqld]
server-id = 4
log-bin=mysql-bin
relay-log=slave-relay-bin
log-slave-updates=true
relay_log_purge=0
保存退出
systemctl restart mariadb
--------------------------------------------------------------------------------------------------------------
注意考虑没有旧数据,所以不用备份
【9.5】、在 Primary Master(192.168.200.111)上对旧数据进行备份
mysqldump --master-data=2 --single-transaction -R --triggers -A > all.sql
参数解释:
--master-data=2 备份时刻记录 master 的 Binlog 位置和 Position
--single-transaction 获取一致性快照
-R 备份存储过程和函数
-triggres 备份触发器
-A 备份所有的库
【9.6】mysql 服务器创建复制授权用户
在主机67Primary Master数据库执行操作
grant replication slave on *.* to 'repl'@'192.168.200.%' identified by '123456';
flush privileges;
show master status;  ///查看位置以及文件信息
+-------------------+----------+--------------+------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+-------------------+----------+--------------+------------------+
| master-bin.000001 | 474 | | |
+-------------------+----------+--------------+------------------+
1 row in set (0.00 sec)
【9.7】把数据备份复制其他主机   (由于没有旧数据所以不用操作)
scp all.sql 192.168.200.112:/tmp/
scp all.sql 192.168.200.113:/tmp/
scp all.sql 192.168.200.114:/tmp/
【9.8】导入备份数据到 112-114 主机上执行复制相关命令 (由于没有旧数据所以不用操作)
mysql -uroot -p123456< /tmp/all.sql
stop slave;
CHANGE MASTER TO
MASTER_HOST='192.168.200.111',
MASTER_USER='repl',
MASTER_PASSWORD='123456',
MASTER_LOG_FILE='master-bin.000001',
MASTER_LOG_POS=474;
start slave;
show slave status\G
# 检查 IO 和 SQL 线程是否为:yes
 Slave_IO_Running: Yes
 Slave_SQL_Running: Yes
【9.9】进入68、69、70主机中查看# 检查 IO 和 SQL 线程是否为:yes
 Slave_IO_Running: Yes
 Slave_SQL_Running: Yes
分别在68、69、70主机中执行以下操作
mysql -uroot -p123456
show slave status\G
【9.10】、主从同步故障处理
 Slave_IO_Running: No
 Slave_SQL_Running: Yes
-----------------------------------忽略部分信息-----------------------------------
Last_IO_Errno: 1236
 Last_IO_Error: Got fatal error 1236 from master when reading data from
binary log: 'Could not find first log file name in binary log index file'
-----------------------------------忽略部分信息-----------------------------------
处理方式:
stop slave;
reset slave;
set global sql_slave_skip_counter =1 ;
start slave;
【9.11】三台 slave 服务器设置 read_only 状态
注意:从库对外只提供读服务,只所以没有写进 mysql 配置文件,是因为随时 server02 会提升为master
[root@server02 ~]# mysql -uroot -p123456 -e 'set global read_only=1'   //临时的操作,也可以在数据库中直接执行set global read_only=1。
[root@server03 ~]# mysql -uroot -p123456 -e 'set global read_only=1
[root@server04 ~]# mysql -uroot -p123456 -e 'set global read_only=1'
【9.12】在主机68、69、70数据库执行操作
grant replication slave on *.* to 'repl'@'192.168.200.%' identified by '123456';
flush privileges;
【9.13】创建监控用户(67-70 主机上的操作):
grant all privileges on *.* to 'root'@'192.168.200.%' identified by '123456';
flush privileges;
【9.14】 为自己的主机名授权:(67-70主机上的操作)
67主机:
grant all privileges on *.* to 'root'@'server02' identified by '123456';
flush privileges;
68主机:
grant all privileges on *.* to 'root'@'server03' identified by '123456';
flush privileges;
69主机:
grant all privileges on *.* to 'root'@'server04' identified by '123456';
flush privileges;
70主机:
grant all privileges on *.* to 'root'@'server05' identified by '123456';
flush privileges;
到这里整个 mysql 主从集群环境已经搭建完毕。
--------------------------------------------------------------------------------------------------------------
【10】配置MHA环境 在66主机上执行操作
【10.1】创建 MHA 的工作目录及相关配置文件
Server05(192.168.200.115):在软件包解压后的目录里面有样例配置文件
mkdir /etc/masterha
cp mha4mysql-manager-0.56/samples/conf/app1.cnf /etc/masterha
【10.2】修改 app1.cnf 配置文件
注意:/usr/local/bin/master_ip_failover 脚本需要根据自己环境修改 ip 和网卡名称等。
vim /etc/masterha/app1.cnf
[server default]
#设置 manager 的工作日志
manager_workdir=/var/log/masterha/app1
#设置 manager 的日志,这两条都是默认存在的
manager_log=/var/log/masterha/app1/manager.log
****#设置 master 默认保存 binlog 的位置,以便 MHA 可以找到 master 日志
master_binlog_dir=/var/lib/mysql    //yum安装跟源码安装时不一样的。
#设置自动 failover 时候的切换脚本
master_ip_failover_script= /usr/local/bin/master_ip_failover
#设置 mysql 中 root 用户的密码
password=123456
user=root
#ping 包的时间间隔
ping_interval=1
#设置远端 mysql 在发生切换时保存 binlog 的具体位置
remote_workdir=/tmp
#设置复制用户的密码和用户名
repl_password=123456
repl_user=repl******   这部分内容需要自己手动添加
[server1]
hostname=server02
port=3306
[server2]
hostname=server03
candidate_master=1
port=3306
check_repl_delay=0
[server3]
hostname=server04
port=3306
[server4]
hostname=server05
port=3306
保存退出
【10.3】在主机66上配置故障转移脚本
vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port,
);
my $vip = '192.168.200.100'; # 写入 VIP
my $key = "1"; #非 keepalived 方式切换脚本使用的
my $ssh_start_vip = "/sbin/ifconfig ens32:$key $vip";
my $ssh_stop_vip = "/sbin/ifconfig ens32:$key down"; #那么这里写服务的开关命令
$ssh_user = "root";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
# $orig_master_host, $orig_master_ip, $orig_master_port are passed.
# If you manage master ip address at global catalog database,
# invalidate orig_master_ip here.
my $exit_code = 1;
#eval {
# print "Disabling the VIP on old master: $orig_master_host \n";
# &stop_vip();
# $exit_code = 0;
#};
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
#my $ping=`ping -c 1 10.0.0.13 | grep "packet loss" | awk -F',' '{print $3}' | awk '{print $1}'`;
#if ( $ping le "90.0%"&& $ping gt "0.0%" ){
#$exit_code = 0;
#}
#else {
&stop_vip();
# updating global catalog, etc
$exit_code = 0;
#}
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
# all arguments are passed.
# If you manage master ip address at global catalog database,
# activate new_master_ip here.
# You can also grant write access (create user, set read_only=0, etc) here.
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
`ssh $ssh_user\@$orig_master_ip \" $ssh_start_vip \"`;
exit 0;
}
else {
&usage();
exit 1;
}
}
# A simple system call that enable the VIP on the new master
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host
--orig_master_ip=ip --orig_master_port=port --
new_master_host=host --new_master_ip=ip --new_master_port=port\n"; }
保存退出
chmod +x /usr/local/bin/master_ip_failover
【10.4】检查 MHA ssh 通信状态
masterha_check_ssh --conf=/etc/masterha/app1.cnf
///出现以下内容表示成功
Sat Dec 29 16:04:01 2018 - [debug] Connecting via SSH from
root@server04(192.168.200.114:22) to root@server03(192.168.200.113:22)..
Sat Dec 29 16:04:02 2018 - [debug] ok.
Sat Dec 29 16:04:02 2018 - [info] All SSH connection tests passed successfully.
【10.5】设置从库 relay log 的清除方式(68-70):
mysql -uroot -p123456 -e 'set global relay_log_purge=0;'
【10.6】检查整个集群的状态
 masterha_check_repl --conf=/etc/masterha/app1.cnf
--------------------------------------------------------------------------------------------------------------
【11】搭建VIP管理方式,基于keepalived控制,基于Perl脚本控制
【11.1】Master vip 配置有两种方式,一种是通过 keepalived 或者 heartbeat 类似的软件的方式管理 VIP 的浮动,另一种为通过命令方式管理。
通过命令方式管理 VIP 地址:
打开在前面编辑过的文件/etc/masterha/app1.cnf,检查如下行是否正确,再检查集群状态。
[root@server05 ~]# grep -n 'master_ip_failover_script' /etc/masterha/app1.cnf
9:master_ip_failover_script= /usr/local/bin/master_ip_failover
【11.2】Server01(192.168.200.66) 检查 manager 状态
masterha_check_status --conf=/etc/masterha/app1.cnf
【11.3】Server01(192.168.200.66) 开启 manager 监控
[root@server01 ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover< /dev/null>/var/log/masterha/app1/manager.log 2>&1 &
【11.4】Server01(192.168.200.66)查看 Server01 监控是否正常:
[root@monitor ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:65837) is running(0:PING_OK), master:server02
【11.5】在67主机上检查server02 的IP  
ip a
【11.6】在66主机上Server01(192.168.200.66)查看启动日志
[root@server01 ~]# cat /var/log/masterha/app1/manager.log
【11.7】模拟主库故障
在69从服务器上
stop slaves;
show slave status\G
在67主机操作
systemctl stop mariadb
netstat -lnpt | grep :3306
ip a | grep ens32
在68、69、70主机上查看
show slave status\G  //会发现主机IP已经发生改变  或者用ip a 查看IP的变化
【11.8】Server01(192.168.200.66) 故障切换过程中的日志文件内容如下:
[root@server01 ~]# tail -f /var/log/masterha/app1/manager.log
【11.9】故障主库修复及 VIP 切回测试
在主机67上操作
 systemctl start mariadb
 netstat -lnpt | grep :3306
将67变成从服务器
mysql -uroot -p123456
stop slave;
CHANGE MASTER TO
MASTER_HOST='192.168.200.112',
MASTER_USER='repl',
MASTER_PASSWORD='123456';
start slave;
show slave status\G
在主机66上做以下操作
vim /etc/masterha/app1.cnf    //将以下3行加上
[server1]
hostname=server02
port=3306
保存退出
//接着检查集群状态
masterha_check_repl --conf=/etc/masterha/app1.cnf
//开启监控
 nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover<
/dev/null >/var/log/masterha/app1/manager.log 2>&1 &
在68主机中操作 查看ip
ip a
在模拟68出错
systemctl stop mariadb
 netstat -lnpt | grep :3306  //模拟出错
在67主机进行操作 看ip 有没有回来
ip a
在69、70主机中看主从复制
 show slave status\G
在68主机进行修复
 systemctl start mariadb
 netstat -lnpt | grep :3306
将68变成从服务器
mysql -uroot -p123456
stop slave;
CHANGE MASTER TO
MASTER_HOST='192.168.200.112',
MASTER_USER='repl',
MASTER_PASSWORD='123456';
start slave;
show slave status\G
在主机66上做以下操作
vim /etc/masterha/app1.cnf    //将以下3行加上
[server2]
hostname=server03
candidate_master=1
port=3306
保存退出
//接着检查集群状态
masterha_check_repl --conf=/etc/masterha/app1.cnf
//开启监控
 nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover<
/dev/null >/var/log/masterha/app1/manager.log 2>&1 &
--------------------------------------------------------------------------------------------------------------
【12】配置读请求负载均衡
【12.1】安装 LVS 和 Keepalived   在
192.168.200.71 和 192.168.200.72主机:
yum -y install ipvsadm kernel-devel openssl-devel keepalived
【12.2】master 主机设置
192.168.200.71 lvs master 主机配置:
! Configuration File for keepalived
global_defs {
 notification_email {
crushlinux@163.com
 }
 notification_email_from crushlinux@163.com
 smtp_server 192.168.200.1
 smtp_connect_timeout 30
 router_id LVS_DEVEL
 vrrp_skip_check_adv_addr
 vrrp_strict
 vrrp_garp_interval 0
 vrrp_gna_interval 0
}
vrrp_instance VI_1 {
state MASTER
 interface ens32
 virtual_router_id 51
 priority 100
 advert_int 1
 authentication {
 auth_type PASS
 auth_pass 1111
 }
 virtual_ipaddress {
 192.168.200.200
 } }
virtual_server 192.168.200.200 3306 {
 delay_loop 6
 lb_algo wrr
 lb_kind DR
 protocol TCP
 real_server 192.168.200.69 3306 {
 weight 1
 TCP_CHECK {
 connect_timeout 10
 nb_get_retry 3
 delay_before_retry 3
 connect_port 3306
 }
 }
 real_server 192.168.200.70 3306 {
 weight 1
 TCP_CHECK {
 connect_timeout 10
 nb_get_retry 3
 delay_before_retry 3
 connect_port 3306
 }
 } }
保存退出
systemctl restart keepalived
 ip add | grep ens32
ipvsadm -Ln
【12.3】backup 主机设置
192.168.200.72 backup 主机配置:
! Configuration File for keepalived
global_defs {
 notification_email {
crushlinux@163.com
 }
 notification_email_from crushlinux@163.com
 smtp_server 192.168.200.1
 smtp_connect_timeout 30
 router_id LVS_DEVEL
 vrrp_skip_check_adv_addr
 vrrp_strict
 vrrp_garp_interval 0
 vrrp_gna_interval 0
}
vrrp_instance VI_1 {
 state BACKUP
 interface ens32
 virtual_router_id 51
 priority 99
 advert_int 1
 authentication {
 auth_type PASS
 auth_pass 1111
}
 virtual_ipaddress {
 192.168.200.200
 } }
virtual_server 192.168.200.200 3306 {
 delay_loop 6
 lb_algo wrr
 lb_kind DR
 protocol TCP
 real_server 192.168.200.69 3306 {
 weight 1
 TCP_CHECK {
 connect_timeout 10
 nb_get_retry 3
 delay_before_retry 3
 connect_port 3306
 }
 }
 real_server 192.168.200.70 3306 {
 weight 1
 TCP_CHECK {
 connect_timeout 10
 nb_get_retry 3
 delay_before_retry 3
 connect_port 3306
 }
 } }
保存退出
systemctl restart keepalived
【12.4】为数据库节点设置 VIP 地址及配置 ARP 相关参数
slave1(192.168.200.69)和 slave2(192.168.200.70)主机配置 realserver 脚本:
在从服务器69上进行操作
vim realserver.sh
#!/bin/bash
SNS_VIP=192.168.200.200
ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP
/sbin/route add -host $SNS_VIP dev lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
sysctl -p >/dev/null 2>&1
保存退出
 bash realserver.sh
 ip a | grep lo
scp realserver.sh 192.168.200.114:/root/
在70主机进行操作
 bash realserver.sh
 ip a |grep lo
【12.5】数据库读请求测试
Server01(192.168.200.66)担任 client 角色测试,连接 vip
在66主机进行操作
[root@server01 ~]# mysql -uroot -p123456 -h192.168.200.200 -P3306
MariaDB [(none)]> exit
Bye
断开后在连接测试。。。。
mysql -uroot -p123456 -h192.168.200.200 -P3306
查看请求分流在71主机进行操作
ipvsadm -Ln
ipvsadm -Lnc
【12.6】数据库连接故障处理
[root@localhost ~]# mysql -u root -p123456 -h192.168.200.113 -P3306
ERROR 1129 (HY000): Host '192.168.200.113' is blocked because of many connection errors;
unblock with 'mysqladmin flush-hosts'
[root@server04 ~]# mysqladmin -uroot -p123456 flush-hosts
=========================完成==================================
 
 
posted @ 2019-12-02 15:46  elin菻  阅读(714)  评论(0编辑  收藏  举报