数据库_MHA群集搭建

 MHA概念介绍,群集搭建与测试

, MHA介绍

1.概念:MHA master high availability,由日本DeNA公司开发,解决mysql故障切换可以做到0-30,而且在故障切换过程中,能最大限度保障数据的一致性,实现真正的高可用.

2.组成:管理节点(MHA manager),管理所有数据库服务器,可以部署于一台独立的主机,也可以与某台数据库服务器共用一台主机;数据节点(MHA node),运行在每台存储数据的服务器上.

3.原理:manager探测集群中的master节点; master故障时,manager自动将拥有最新数据的从库提升为新的master.

,搭建MHA群集

1.拓扑图

2.部署环境

- 准备3台数据库服务器4.51,4.52,4.53,配置为一主多从结构(4.51为主库,4.524.53为从库),并且相互之间可以用root无密码登录.

-实现无密码登录的方式:(3台服务器上都需要重复4.51的动作)

 例,在主机4.51上操作:#ssh-keygen -f /root/.ssh_rsa -N ‘’   //生成秘钥

                      #for i in 51 52 53   //拷贝秘钥到其它主机

                      do

                          ssh-copy-id root@192.168.4.$i

                      done

- 准备2台虚拟机:主机4.57做管理节点manager,主机4.50做客户端client.

- 在主机4.50,4.51,4.52,4.53,4.57上安装系统自带的软件perl-*

- 管理节点4.57可以用root用户无密码登录3台数据库服务器4.51,4.52,4.53.

- 所有主机安装共享的perl软件包(从真机上scp文件夹mha-soft-student->cd进入文件夹->yum安装perl-* )

- rpm -qa|grep perl|wc -l //查看安装的perl软件包数量是否为382

3.安装管理节点的软件

#cd mha-soft-student/  进入文件夹

cd mha-soft-student]# rpm -ivh mha4mysql-node-0.56-0.el6.noarch.rpm //安装连接服务器节点的软件

# tar -xvf mha4mysql-manager-0.56.tar.gz      //解压管理软件包

# cd mha4mysql-manager-0.56                //进入文件夹

mha4mysql-manager-0.56]# perl Makefile.PL  //指定目标文件,检查安装环境

mha4mysql-manager-0.56]# make           //编译源码

mha4mysql-manager-0.56]# make install    //编译并安装

#ls /root/perl5/bin/masterha_*              //查看安装的管理集群的命令

4.编写主配置文件app1.cnf

# mkdir /etc/mha  //创建新目录,以存储配置文件(不在系统默认配置文件的目录下操作)

#cd mha-soft-student   //进入文件夹

mha-soft-student]# cp mha4mysql-manager-0.56/samples/conf/app1.cnf  /etc/mha/                     //将系统配置文件拷贝到新建目录/etc/mha

mha-soft-student]# vim /etc/mha/app1.cnf  //编辑配置文件

[server default]               //管理服务器的默认配置

manager_workdir=/etc/mha         //工作目录

manager_log=/etc/mha/manager.log        //工作日志

master_ip_failover_script=/etc/mha/master_ip_failover   //故障切换脚本

ssh_user=root               //访问ssh服务的用户

ssh_port=22                 //ssh服务端口

repl_user=repluser           //主库同步到从库的授权用户

repl_password=123qqq...A   //主库同步到从库的授权密码

user=root                    //manager登录数据库服务器使用的用户

password=123qqq...A        //manager登录数据库服务器使用的密码

[server1]                   //指定第1台数据库服务器

hostname=192.168.4.51   //数据库服务器IP地址

port=3306                 //服务端口

candidate_master=1       //竞选主机,当主库故障时,其它的从库参入新主库的竞选

[server2]                  //指定第2台数据库服务器

hostname=192.168.4.52  //数据库服务器IP地址

port=3306                //服务端口

candidate_master=1

[server3]                  //指定第3台数据库服务器

hostname=192.168.4.53  //数据库服务器IP地址

port=3306                //服务端口

candidate_master=1      //竞选主机,当主库故障时,其它的从库参入新主库的竞选

5.在管理节点4.57上创建故障切换脚本master_ip_failover

#cp mha-soft-student/master_ip_failover  /etc/mha/

#vim /etc/mha/master_ip_failover  

my $vip = '192.168.4.100/24';  #定义VIP 

my $key = "1";   //定义地址编号

my $ssh_start_vip = "/sbin/ifconfig eth0:$key $vip";   //绑定VIP地址

my $ssh_stop_vip = "/sbin/ifconfig eth0:$key down";  //释放VIP地址   

# chmod +x /etc/mha/master_ip_failover   //赋予权限 ,这一步很重要,漏掉会导致集群起不来.

6.在主库4.51上部署vip

# ifconfig eth0:1 192.168.4.100    //设置VIP

# ifconfig eth0:1     //查看VIP,谁是主库,谁就拥有VIP

client ~]# ping -c2 192.168.4.100  //客户端ping一下连接状态

7.在从库4.52,4.53上配置数据节点

[root@db51 mha-soft-student]# for i in 51 52 53  //安装连接节点的软件

 > do

>ssh 192.168.4.$i "yum -y install /root/mha-soft-student/mha4mysql-node-0.56-0.el6.noarch.rpm"

> done

mysql> grant replication slave on *.* to repluser@"%" identified by "123qqq...A";  //在从库4.52,4.53上授权用户repluser及密码

mysql> grant all on *.* to root@"%" identified by "123qqq...A"; //3台数据库4.57上授权管理节点监控数据库时使用的连接用户及密码

8.主库加载master,slave模块

[mysqld]

log-bin=db51    //启用log-bin日志

server_id=51

plugin-load="rpl_semi_sync_master=semisync_master.so;rpl_semi_sync_slave=semisync_slave.so"  //加载模块

rpl_semi_sync_master_enabled=1  //启用master模块

rpl_semi_sync_slave_enabled=1    //启用slave模块

relay_log_purge=0     //禁止软件自动删除中继日志文件

#systemctl restart mysqld   //重启,加载配置

9.从库4.52加载master,slave模块

[mysqld]

server_id=52

log-bin=master52    //启用log-bin日志

relay_log_purge=0   //禁止软件自动删除中继日志文件

plugin-load="rpl_semi_sync_master=semisync_master.so;rpl_semi_sync_slave=semisync_slave.so"   //加载模块

rpl_semi_sync_master_enabled=1    //启用master模块

rpl_semi_sync_slave_enabled=1     //启用slave模块

#systemctl restart mysqld    //重启,加载配置

10.从库4.53加载master,slave模块

[mysqld]

server_id=53

log_bin=master53    //启用log-bin日志

relay_log_purge=0   //禁止软件自动删除中继日志文件

plugin-load="rpl_semi_sync_master=semisync_master.so;rpl_semi_sync_slave=semisync_slave.so"   //加载模块

rpl_semi_sync_master_enabled=1   //启用master模块

rpl_semi_sync_slave_enabled=1    //启用slave模块

#systemctl restart mysqld

11.测试一下数据库主从是否同步

mysql-uroot -p123qqq...A -e ‘insert into db1.t1 values(6,”wangwu”,30)’ //在主库4.51上插入数据

[root@db51 ~]# for i in 52 53   //查看从库是否同步数据

> do

> ssh root@192.168.4.$i 'mysql -uroot -p123qqq...A -e "select * from db1.t1"'

> done

,测试MHA群集

1.在管理节点上测试ssh配置

[root@db57 ~]# masterha_check_ssh --conf=/etc/mha/app1.cnf

Thu Jun 20 15:30:08 2019 - [info] All SSH connection tests passed successfully.

2.在管理节点上测试主从同步

[root@db57 ~]# masterha_check_repl --conf=/etc/mha/app1.cnf

MySQL Replication Health is OK

3.启动masterha_manager服务

[root@db57 ~]# masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf  --ignore_last_failover

--remove_dead_master_conf //主库故障时,删除管理节点配置文件中的server主机

--ignore_last_failover //软件默认故障发生时,有一个切换时间.加载该选项可以实现时间点无缝切换.

4.在主库4.51添加访问数据的连接用户及密码,并同步到4.524.53

mysql> create database db9;

mysql> create table db9.a(id int,name char(10));

mysql> grant select,insert on db9.* to yaya55@"%" identified by '123qqq...A';

# mysql -uroot -p123qqq...A -e 'select host,user from mysql.user where user="yaya55";'  //分别在4.524.53查看授权的用户yaya55

5.客户端登录插入数据

[root@client ~]# mysql -h192.168.4.100 -uroot -p123qqq...A

mysql> insert into db9.a values(1,"lisi");

mysql> insert into db9.a values(2,"wangwu");

mysql> select * from db9.a;

+------+--------+

| id   | name   |

+------+--------+

|    1 | lisi   |

|    2 | wangwu |

+------+--------+

2 rows in set (0.00 sec)

# mysql -uroot -p123qqq...A -e ‘select * from db9.a’ //分别在4.524.53上查看插入的数据

6.测试高可用

思路:停止4.51mysql服务->管理节点4.57会监控到master4.51发生故障,并停止监控服务,触发故障脚本master_ip_failover2台从库中竞选出新的master主机,数据库服务不会停止->客户端连接到vip,依然可以访问数据库,做读写操作.

6.1停止主库4.51mysql服务

[root@db51 ~]# systemctl stop mysqld

6.2客户端再次登录vip

[root@client ~]# mysql -h192.168.4.100 -uroot -p123qqq...A

6.3插入数据,并查看

mysql> insert into db9.a values(3,"jack");

mysql> select * from db9.a;  //在主机4.524.53上查看插入的数据

6.4 配置文件/etc /mha/aqq1.cnf中的[server1]容器被删除,即主机4.51被踢出了服务序列,具体见下图:

7.将down机的4.51重新添加入集群服务序列

7.1启动数据库4.51

#systemctl start mysqld

7.24.51配置为当前集群的从服务器

7.2.1把新主库4.52的数据备份,并在4.51上恢复,以确保与主服务器数据保持一致.

[root@db52 ~]# mysqldump -uroot -p123qqq...A --master-data db9 > db9.sql //主库备份数据

[root@db52 ~]# scp db9.sql root@192.168.4.51:/root/  //上传数据给4.51

[root@db51 ~]# mysql -uroot -p123qqq...A db9 < /root/db9.sql  //在主机4.51上恢复数据

7.2.2定义从库信息,启动slave进程,查看状态

mysql> change master to

  ->master_host="192.168.4.52",master_user="repluser",master_password="123qqq...A",

-> master_log_file="master52.000002",master_log_pos=154;

//定义从库信息

mysql> start slave;  

[root@db51 ~]# mysql -uroot -p123qqq...A -e "show slave status\G"|head -13

//查看已经定义的从库信息

*************************** 1. row ***************************

               Slave_IO_State: Waiting for master to send event

                  Master_Host: 192.168.4.52

                  Master_User: repluser

                  Master_Port: 3306

                Connect_Retry: 60

              Master_Log_File: master52.000002

          Read_Master_Log_Pos: 154

               Relay_Log_File: db51-relay-bin.000002

                Relay_Log_Pos: 319

        Relay_Master_Log_File: master52.000002

             Slave_IO_Running: Yes

            Slave_SQL_Running: Yes

7.3 将主机4.51添加到集群配置文件中

7.3.1停止管理节点4.57的监控服务

[root@db57 ~]# masterha_stop --conf=/etc/mha/app1.cnf

7.3.2添加主机4.51server到集群配置文件/etc/mha/app1.cnf

[server1]

candidate_master=1

hostname=192.168.4.51

port=3306

7.3.3管理节点做启动前的sshrepl检测

[root@db57 ~]# masterha_check_ssh --conf=/etc/mha/app1.cnf

[info] All SSH connection tests passed successfully.

[root@db57 ~]# masterha_check_repl --conf=/etc/mha/app1.cnf

MySQL Replication Health is OK.

7.3.4启动管理节点,监控数据库服务器

[root@db57 ~]# masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover

[root@db57 ~]# masterha_check_status --conf=/etc/mha/app1.cnf

app1 (pid:1991) is running(0:PING_OK), master:192.168.4.52

,总结

必须配置实现ssh无密码登录(数据库服务器之间,管理节点与数据库服务器之间)

必须配置主从同步结构

必须设置VIP地址

down机的服务器需要人为配置为集群从服务器,才能重新添加到集群服务序列.

down机的服务器不能自动同步down机期间的数据(缺点)

在主从同步结构中,没有从服务器时,不能实现故障切换.

 结束.

 

posted @ 2019-06-26 20:26  巴州夜雨  阅读(349)  评论(0编辑  收藏  举报