mysql MHA高可用+读写分离
1.mysql MHA高可用+读写分离
高可用采用mha方式实现,因为keepalive存在脑裂现象,所以vip漂移采用mha自带的脚本实现,读写分离采用基于MySQL-proxy的360公司的atlas实现。
1.1 mysql MHA高可用
1.11 mha简介
MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,它由日本DeNA公司youshimaton(现就职于Facebook公司)开发,是一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件。在MySQL故障切换过程中,MHA能做到在10~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。
MHA能够在较短的时间内实现自动故障检测和故障转移,通常在10-30秒以内;在复制 框架中,MHA能够很好地解决复制过程中的数据一致性问题,由于不需要在现有的 replication中添加额外的服务器,仅需要一个manager节点,而一个Manager能管理多套复制,所以能大大地节约服务器的数量;另外,安装简单,无性能损耗,以及不需要修改现 有的复制部署也是它的优势之处。
MHA还提供在线主库切换的功能,能够安全地切换当前运行的主库到一个新的主库中 (通过将从库提升为主库),大概0.5-2秒内即可完成。
该软件由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。MHA Node运行在每台MySQL服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程对应用程序完全透明。
在MHA自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据的不丢失,但这并不总是可行的。例如,如果主服务器硬件故障或无法通过ssh访问,MHA没法保存二进制日志,只进行故障转移而丢失了最新的数据。使用MySQL 5.5的半同步复制,可以大大降低数据丢失的风险。
MHA可以与半同步复制结合起来。如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。
目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库,因为至少需要三台服务器,出于机器成本的考虑,淘宝也在该基础上进行了改造,目前淘宝TMHA已经支持一主一从。
1.2 mha部署
1.2.1 环境:
主:192.168.100.52
从:192.168.100.53
从:192.168.100.54
vip:192.168.100.55
关闭所有节点的selinux和防火墙或开放3306端口
- 管理节点:
mha-manager 192.168.100.53
1.2.2 安装mha
- mha主机安装perl环境:
yum -y install perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker perl-DBD-MySQL perl-Config-Tiny perl-Log-Dispatch perl-Parallel-ForkManager perl-ExtUtils-Embed cpan
- manager安装:
# 先安装node
tar xf mha4mysql-node-0.56.tar.gz
cd mha4mysql-node-0.56
perl Makefile.PL
make && make install
# 再安装manager
tar xf mha4mysql-manager-0.56.tar.gz
cd mha4mysql-manager-0.56
perl Makefile.PL
make && make install
- 创建配置文件:
mkdir /etc/mha
mkdir -p /data/logs/mha/app1
cp mha4mysql-manager-0.56/samples/conf/app1.cnf /etc/mha
配置文件:
[server default]
manager_workdir=/data/logs/mha/app1
manager_log=/data/logs/mha/app1/manager.log
master_binlog_dir=/data/data/mysql
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
ssh_user=root
ssh_port=22
user=admin
password=mha_admin
repl_user=slave
repl_password=nx111
ping_interval=1
[server1]
ignore_fail=0
hostname=192.168.100.52
port=3306
[server2]
ignore_fail=0
hostname=192.168.100.53
port=3306
candidate_master=1
check_repl_delay=0
[server3]
ignore_fail=0
hostname=192.168.100.54
port=3306
配置文件详解:
1 [server default]
2 #设置manager的工作目录
3 manager_workdir=/var/log/masterha/app1
4 #设置manager的日志
5 manager_log=/var/log/masterha/app1/manager.log
6 #设置master 保存binlog的位置,以便MHA可以找到master的日志,我这里的也就是mysql的数据目录
7 master_binlog_dir=/data/mysql
8 #设置自动failover时候的切换脚本
9 master_ip_failover_script= /usr/local/bin/master_ip_failover
10 #设置手动切换时候的切换脚本
11 master_ip_online_change_script= /usr/local/bin/master_ip_online_change
12 #设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
13 password=123456
14 #设置监控用户root
15 user=root
16 #设置监控主库,发送ping包的时间间隔,尝试三次没有回应的时候自动进行failover
17 ping_interval=1
18 #设置远端mysql在发生切换时binlog的保存位置
19 remote_workdir=/tmp
20 #设置复制用户的密码
21 repl_password=123456
22 #设置复制环境中的复制用户名
23 repl_user=rep
24 #设置发生切换后发送的报警的脚本
25 report_script=/usr/local/send_report
26 #一旦MHA到server02的监控之间出现问题,MHA Manager将会尝试从server03登录到server02
27 secondary_check_script= /usr/local/bin/masterha_secondary_check -s server03 -s server02 --user=root --master_host=server02 --master_ip=10.0.0.51 --master_port=3306
28 #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机放在发生脑裂,这里没有使用)
29 shutdown_script=""
30 #设置ssh的登录用户名
31 ssh_user=root
32
33 [server1]
34 hostname=10.0.0.51
35 port=3306
36
37 [server2]
38 hostname=10.0.0.52
39 port=3306
40 #设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中事件最新的slave
41 candidate_master=1
42 #默认情况下如果一个slave落后master 100M的relay logs的话,MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
43 check_repl_delay=0
- 主从节点安装node:
tar xf mha4mysql-node-0.56.tar.gz
cd mha4mysql-node-0.56
perl Makefile.PL
make && make install
- 各节点相互生成密钥添加互信包括本机自身:
生成密钥:ssh-keygen
互相添加互信:ssh-copy-id -i 公钥文件 ip
添加完成后用master_chekc_ssh -conf=/etc/mha/app1.cnf
进行测试 - 配置文件更改,从节点也开启二进制日志,server_id不能相同
vim /etc/my.cnf
[mysql]
server_id = 1 # 设置优先级最高
log_bin = binlog # 开启二进制日志
log_bin = binlog.index
read_only = 1 # 设置只读权限
relay_log_purge = 0 # 关闭自动清除执行完毕后的中级日志
1.2.3 mysql开启主从同步
- 原理:主从同步同步的是基于binlog里面记录的增删改。从服务器开启io线程同步主服务器binlog,从服务器接收binlog,并记录在relaylog里,sql线程执行relaylog日志。
主:192.168.100.52
从:192.168.100.53
从:192.168.100.54
vip:192.168.100.55 - 重启mysql,登录主节点添加授权主从复制账号和mha用的账号:
# 建立从服务器账户
grant replication slave on *.* to 'slave'@'192.168.100.%' identified by 'nx111';
# 建立mha管理用账户
grant all on *.* to 'admin'@'192.168.100.%' identified by 'mha_admin';
- 登录主节点mysql查看二进制日志状态:
show master status
+---------------+----------+--------------+------------------+-------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+---------------+----------+--------------+------------------+-------------------+
| binlog.000001 | 686 | | | |
+---------------+----------+--------------+------------------+-------------------+
- 登录每一个从节点,开启主从复制:
change master to
master_host='192.168.100.52',
master_user='slave',
master_password='nx111',
master_log_file='binlog.000001',
master_log_pos=686;
- 检查
masterha_check_repl --conf=/etc/mha/app1.cnf
输出:MySQL Replication Health is OK.
- 启动mha-manager
nohup /usr/local/bin/masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /data/logs/mha/app1/manager.log 2>&1 &
- 查看运行状态
masterha_check_status --conf=/etc/mha/app1.cnf
输出:app1 (pid:11809) is running(0:PING_OK), master:192.168.100.52
表明成功运行
1.2.4 主从切换测试
- 切换主从测试:
主库192.168.100.52
停掉主库/etc/init.d/mysqld stop
查看mha-manager日志切换从库为主库
配置文件添加被剔除的52主库,启动主库,change master到新主库
测试成功主库成功迁移到54 - 添加vip漂移:
1.2.5 添加vip测试vip漂移
- 虚拟ip漂移有两种方式:
- keepalive方式:网络抖动会导致脑裂现象,主从库会争夺vip,造成ip冲突。
- mha自带脚本方式:修改mha自带脚本
- 前端nginx新建php网页文件:
<?php
echo time() . PHP_EOL;
$db = new mysqli('192.168.100.55','admin','mha_admin');
if ($db->connect_errno)
{
die("连接数据库失败". $db->connect_error);
}
echo "连接成功";
$db->close();
?>
- 自带脚本:
- 自动切换脚本:
/usr/local/bin/master_ip_failover
- 手动切换脚本:
/usr/local/bin/master_ip_online_change
- 修改两个脚本内的vip和gatway,ssh端口,网卡名称。centos7注意ifconfig命令的路径,没有ifconfig命令yum安装net-tools网络工具包,并修改脚本里面ifconfig路径。
- 自动切换脚本:
- 手动绑定vip:
ip addr add 192.168.100.55/32 dev eth0
浏览器打开前端服务器可以看到
用
masterha_check_repl --conf=/etc/mha/app1.cnf
检测一下,输出全部ok,MySQL Replication Health is OK.
就可以启动mha了
启动命令:nohup /usr/local/bin/masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /data/logs/mha/app1/manager.log 2>&1 &
- 停掉52主库mysql,查看54备选master的ip漂移成功
ip a s eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 52:54:00:03:d9:43 brd ff:ff:ff:ff:ff:ff
inet 192.168.100.54/24 brd 192.168.100.255 scope global eth0
valid_lft forever preferred_lft forever
inet 192.168.100.55/24 brd 192.168.100.255 scope global secondary eth0:0
valid_lft forever preferred_lft forever
有两个ip,其中一个是vip55,查看从53从库的slave status切换备选主库成功:
mysql> show slave status\G
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 192.168.100.54
Master_User: slave
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: binlog.000004
Read_Master_Log_Pos: 120
Relay_Log_File: localhost-relay-bin.000002
Relay_Log_Pos: 280
Relay_Master_Log_File: binlog.000004
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
查看/data/logs/mha/app1/manager.log
----- Failover Report -----
app1: MySQL Master failover 192.168.100.52(192.168.100.52:3306) to 192.168.100.54(192.168.100.54:3306) succeeded
Master 192.168.100.52(192.168.100.52:3306) is down!
Check MHA Manager logs at localhost.localdomain:/data/logs/mha/app1/manager.log for details.
Started automated(non-interactive) failover.
Invalidated master IP address on 192.168.100.52(192.168.100.52:3306)
The latest slave 192.168.100.53(192.168.100.53:3306) has all relay logs for recovery.
Selected 192.168.100.54(192.168.100.54:3306) as a new master.
192.168.100.54(192.168.100.54:3306): OK: Applying all logs succeeded.
192.168.100.54(192.168.100.54:3306): OK: Activated master IP address.
192.168.100.53(192.168.100.53:3306): This host has the latest relay log events.
Generating relay diff files from the latest slave succeeded.
192.168.100.53(192.168.100.53:3306): OK: Applying all logs succeeded. Slave started, replicating from 192.168.100.54(192.168.100.54:3306)
192.168.100.54(192.168.100.54:3306): Resetting slave info succeeded.
Master failover to 192.168.100.54(192.168.100.54:3306) completed successfully.
- 再次用浏览器打开前端地址,依然连接成功,mha高可用实现
2. 读写分离中间件atlas
2.1 atlas介绍
Atlas是由 Qihoo 360公司Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它在MySQL官方推出的MySQL-Proxy 0.8.2版本的基础上,修改了大量bug,添加了很多功能特性。目前该项目在360公司内部得到了广泛应用,很多MySQL业务已经接入了Atlas平台,每天承载的读写请求数达几十亿条。
- 主要功能
读写分离、从库负载均衡、自动分表、IP过滤 - 使用场景
atlas是位于前端应以和后端数据库之间的中间件,作为客户端与数据库连接,同时对于前端应用来说,是一个服务端。
2.2 其它中间件介绍
Mysql-proxy(oracle)
Mysql-router(oracle)
Atlas (Qihoo 360)
Atlas-sharding (Qihoo 360)
Cobar(是阿里巴巴(B2B)部门开发)
Mycat(基于阿里开源的Cobar产品而研发)
TDDL Smart Client的方式(淘宝)
Oceanus(58同城数据库中间件)
OneProxy(原支付宝首席架构师楼方鑫开发 )
vitess(谷歌开发的数据库中间件)
Heisenberg(百度)
TSharding(蘑菇街白辉)
Xx-dbproxy(金山的Kingshard、当当网的sharding-jdbc )
2.3 atlas安装
我安装atlas到54从库的机器上
2.3.1 注意事项
软件获取地址:https://github.com/Qihoo360/Atlas/releases
下载安装:
wget https://github.com/Qihoo360/Atlas/releases/download/2.2.1/Atlas-2.2.1.el6.x86_64.rpm
rpm -ivh Atlas-2.2.1.el6.x86_64.rpm
1、Atlas只能安装运行在64位的系统上
2、Centos 5.X安装 Atlas-XX.el5.x86_64.rpm,Centos 6.X安装Atlas-XX.el6.x86_64.rpm。
3、后端mysql版本应大于5.1,建议使用Mysql 5.6以上
Atlas (普通) : Atlas-2.2.1.el6.x86_64.rpm
Atlas (分表) : Atlas-sharding_1.0.1-el6.x86_64.rpm
2.3.2 配置文件
[root@localhost conf]# rpm -ql Atlas-2.2.1
/usr/local/mysql-proxy/bin/VERSION
/usr/local/mysql-proxy/bin/encrypt //密码加密程序
/usr/local/mysql-proxy/bin/mysql-proxy //原版mysql-proxy
/usr/local/mysql-proxy/bin/mysql-proxyd //360重写后的程序
/usr/local/mysql-proxy/conf/test.cnf //配置文件
这里密码加密程序是atlas配置文件密码。主库授信数据库权限,否则通过atlas访问数据库获取不到数据。因为开了主从复制,所以从库会同步授信。
因为先前授信了mha用户admin。所以使用这个账户,加密密码:
[root@localhost bin]# /usr/local/mysql-proxy/bin/encrypt mha_admin
2VJk4+gKBSiT6hL0DO30MA==
复制密码串到配置文件; /usr/local/mysql-proxy/conf/test.cnf
配置文件注释是中文
[mysql-proxy]
#带#号的为非必需的配置项目
#管理接口的用户名
admin-username=user
#管理接口的密码
admin-password=pwd
#Atlas后端连接的MySQL主库的IP和端口,可设置多项,用逗号分隔
proxy-backend-addresses=192.168.100.55:3306
#Atlas后端连接的MySQL从库的IP和端口,@后面的数字代表权重,用来作负载均衡,若省略则默认为1,可设置多项,用逗号分隔
proxy-read-only-backend-addresses=192.168.100.54:3306@2,192.168.100.53:3306@1
#用户名与其对应的加密过的MySQL密码,密码使用PREFIX/bin目录下的加密程序encrypt加密,下行的user1和user2为示例,将其替换为你的MySQL的用户名和加密密码!
pwds=admin:2VJk4+gKBSiT6hL0DO30MA==,atlas:F81glGa2FGwa8s/oWZlMvQ==
#设置Atlas的运行方式,设为true时为守护进程方式,设为false时为前台方式,一般开发调试时设为false,线上运行时设为true,true后面不能有空格。
daemon=true
#设置Atlas的运行方式,设为true时Atlas会启动两个进程,一个为monitor,一个为worker,monitor在worker意外退出后会自动将其重启,设为false时只有worker,没有monitor,一般开发调试时设为false,线上运行时设为true,true后面不能有空格。
keepalive=true
#工作线程数,对Atlas的性能有很大影响,可根据情况适当设置
event-threads=8
#日志级别,分为message、warning、critical、error、debug五个级别
log-level=message
#日志存放的路径
log-path=/data/logs/mysql-proxy/log
#SQL日志的开关,可设置为OFF、ON、REALTIME,OFF代表不记录SQL日志,ON代表记录SQL日志,REALTIME代表记录SQL日志且实时写入磁盘,默认为OFF
#sql-log = OFF
#慢日志输出设置。当设置了该参数时,则日志只输出执行时间超过sql-log-slow(单位:ms)的日志记录。不设置该参数则输出全部日志。
#sql-log-slow = 10
#实例名称,用于同一台机器上多个Atlas实例间的区分
#instance = test
#Atlas监听的工作接口IP和端口
proxy-address=0.0.0.0:1234
#Atlas监听的管理接口IP和端口
admin-address=0.0.0.0:2345
#分表设置,此例中person为库名,mt为表名,id为分表字段,3为子表数量,可设置多项,以逗号分隔,若不分表则不需要设置该项
#tables = person.mt.id.3
#默认字符集,设置该项后客户端不再需要执行SET NAMES语句
charset=utf8
#允许连接Atlas的客户端的IP,可以是精确IP,也可以是IP段,以逗号分隔,若不设置该项则允许所有IP连接,否则只允许列表中的IP连接
client-ips=127.0.0.1,192.168.100.52
#Atlas前面挂接的LVS的物理网卡的IP(注意不是虚IP),若有LVS且设置了client-ips则此项必须设置,否则可以不设置
#lvs-ips = 192.168.1.1
2.3.3 启动atlas
首先,先确认主库vip已经绑定,所以我这里配置文件里的主库是55,并不是实际的52。然后确认主从库完好,MySQL启动正常,并且防火墙已经关闭。改完了配置文件,就可以启动atlas了/etc/init.d/atlasd start
2.4 测试atlas
2.4.1 客户端测试
- 查看端口是否已经启动
[root@localhost conf]# ss -nptl |grep mysql-proxy
LISTEN 0 128 *:1234 *:* users:(("mysql-proxy",pid=2361,fd=10))
LISTEN 0 128 *:2345 *:* users:(("mysql-proxy",pid=2361,fd=9))
两个端口都是配置文件里指定的端口,其中1234是工作端口,负责对外提供数据库读写服务的,2345端口是mysql-proxy管理端口。
管理端口登录的用户名默认:user,默认密码:pwd
- 登录管理端口:
mysql -h127.0.0.1 -uadmin -p -P2345
根据提示:use ‘SELECT * FROM help’ to see the supported commands
输入SELECT * FROM help;
+----------------------------+---------------------------------------------------------+
| command | description |
+----------------------------+---------------------------------------------------------+
| SELECT * FROM help | shows this help |
| SELECT * FROM backends | lists the backends and their state |
| SET OFFLINE $backend_id | offline backend server, $backend_id is backend_ndx's id |
| SET ONLINE $backend_id | online backend server, ... |
| ADD MASTER $backend | example: "add master 127.0.0.1:3306", ... |
| ADD SLAVE $backend | example: "add slave 127.0.0.1:3306", ... |
| REMOVE BACKEND $backend_id | example: "remove backend 1", ... |
| SELECT * FROM clients | lists the clients |
| ADD CLIENT $client | example: "add client 192.168.1.2", ... |
| REMOVE CLIENT $client | example: "remove client 192.168.1.2", ... |
| SELECT * FROM pwds | lists the pwds |
| ADD PWD $pwd | example: "add pwd user:raw_password", ... |
| ADD ENPWD $pwd | example: "add enpwd user:encrypted_password", ... |
| REMOVE PWD $pwd | example: "remove pwd user", ... |
| SAVE CONFIG | save the backends to config file |
| SELECT VERSION | display the version of Atlas |
+----------------------------+---------------------------------------------------------+
查看backend节点状态:SELECT * FROM backends;
+-------------+---------------------+-------+------+
| backend_ndx | address | state | type |
+-------------+---------------------+-------+------+
| 1 | 192.168.100.55:3306 | up | rw |
| 2 | 192.168.100.54:3306 | up | ro |
| 3 | 192.168.100.53:3306 | up | ro |
+-------------+---------------------+-------+------+
3 rows in set (0.00 sec)
关闭一个节点:set offlne 2;
+-------------+---------------------+---------+------+
| backend_ndx | address | state | type |
+-------------+---------------------+---------+------+
| 2 | 192.168.100.54:3306 | offline | ro |
+-------------+---------------------+---------+------+
移除一个节点:remove backend 2;
mysql> remove backend 2;
Empty set (0.00 sec)
mysql> SELECT * FROM backends;
+-------------+---------------------+-------+------+
| backend_ndx | address | state | type |
+-------------+---------------------+-------+------+
| 1 | 192.168.100.55:3306 | up | rw |
| 2 | 192.168.100.53:3306 | up | ro |
+-------------+---------------------+-------+------+
保存配置:SAVE CONFIG;
添加一个节点:add slave 192.168.100.54:3306
mysql> SELECT * FROM backends;
+-------------+---------------------+-------+------+
| backend_ndx | address | state | type |
+-------------+---------------------+-------+------+
| 1 | 192.168.100.55:3306 | up | rw |
| 2 | 192.168.100.53:3306 | up | ro |
| 3 | 192.168.100.54:3306 | up | ro |
+-------------+---------------------+-------+------+
3 rows in set (0.00 sec)
- 登录工作端口:
mysql -h127.0.0.1 -uadmin -p -P1234
输入admin密码进行登录,然后就可以查看一下数据库show databases;
能否看到授权的数据库,不能看到的话重新授权admin用户。
然后查询server_idshow variables like 'server_id';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| server_id | 3 |
+---------------+-------+
再次查看show variables like 'server_id
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| server_id | 2 |
+---------------+-------+
负载均衡已经实现。
2.4.2 网页测试
确保配置文件已经添加web端地址,能够远程访问atlas的工作端口。我这里web程序搭建在52上。所以在52上进行测试登录atlas工作端口:
主机52:mysql -h192.168.100.54 -uadmin -p -P1234
如果不能连接请检查atlas配置文件配置的允许登录地址和俩机器的防火墙状态。
接下来新建php进行测试:
确保主从复制打开的情况下,在主库新建数据库,数据表并插入数据。或找个数据表导入进去。- 查询和读写分离:
这时更改从数据库上的表数据53和54分别添加标识
- 查询和读写分离:
<?php
$connect=mysqli_connect('192.168.100.54','admin','mha_admin','mha','1234');
$sql='select name from aty_menu';
mysqli_query($connect,'set names utf8');
$result=mysqli_query($connect,$sql);
$arr=array();//定义空数组
while($row =mysqli_fetch_array($result)){
//var_dump($row);
//array_push(要存入的数组,要存的值)
array_push($arr,$row);
}
var_dump($arr);
然后打开浏览器进行访问,然后ctrl+f5进行刷新可以看到,分别读取两个数据库。并且并不会读取到主库,说明读写分离和只读负载均衡已经实现