docker安装mycat并实现mysql读写分离和分库分表
1.部署mysql主从复制,参考我的博客《docker部署mysql主从复制》
2.拉取docker镜像
docker pull longhronshens/mycat-docker
3.mycat相关配置
一、创建配置文件夹
mkdir -p /usr/local/mycat/conf cd /usr/local/mycat/conf
二、vim /usr/local/mycat/conf/server.xml
<?xml version="1.0" encoding="UTF-8" ?>
<!DOCTYPE mycat:server SYSTEM "server.dtd">
<mycat:server xmlns:mycat="http://io.mycat/">
<!--mycat相关配置-->
<system>
<property name="useSqlStat">0</property>
<property name="useGlobleTableCheck">0</property>
<property name="sequnceHandlerType">0</property>
<property name="processorBufferPoolType">0</property>
<property name="handleDistributedTransactions">0</property>
<property name="useOffHeapForMerge">1</property>
<property name="memoryPageSize">1m</property>
<property name="spillsFileBufferSize">1k</property>
<property name="useStreamOutput">0</property>
<property name="systemReserveMemorySize">384m</property>
<property name="useZKSwitch">true</property>
</system>
<!--以下设置为应用访问帐号权限,root账号,root密码-->
<user name="root">
<property name="password">root</property>
<!-- 下面标签填写的内容需要和schema.xml配置文件内的一致,如果有两个或者两个以上的值,可用逗号分开,但是在schema.xml配置文件内,必须用两个schema标签来进行分开填写 -->
<property name="schemas">test</property>
</user>
</mycat:server>
三、vim /usr/local/mycat/conf/schema.xml
<?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE mycat:schema SYSTEM "schema.dtd"> <mycat:schema xmlns:mycat="http://io.mycat/"> <!-- schema是数据库设置,此数据库为逻辑数据库 name逻辑数据库名,与server.xml中的schema对应 checkSQLschema数据库前缀相关设置,建议看文档,这里暂时设为false sqlMaxLimit指select时默认的limit,避免查询全表 table标签,这些数据表为逻辑数据表 name表名,物理数据库中表名 dataNode表存储到哪些节点,多个节点用逗号分隔。节点为下文dataNode设置的name primaryKey主键字段名,自动生成主键时需要设置 autoIncrement是否自增 rule分片规则名,具体规则下文rule.xml详细介绍 --> <schema name="test" checkSQLschema="false" sqlMaxLimit="100"> <table name="tb_user" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3,dn4" rule="userrule"/> <table name="tb_category" primaryKey="id" dataNode="dn1,dn2,dn3,dn4" rule="categoryrule"/> </schema> <!-- dataNode是分片信息,也就是分库相关配置 name节点名,与table中dataNode对应 dataHost物理数据库名,与dataHost中name对应 database物理数据库中数据库名 --> <dataNode name="dn1" dataHost="localhost1" database="db1"/> <dataNode name="dn2" dataHost="localhost1" database="db2"/> <dataNode name="dn3" dataHost="localhost1" database="db3"/> <dataNode name="dn4" dataHost="localhost1" database="db4"/> <!-- dataHost是物理数据库,真正存储数据的数据库 name属性唯一标识dataHost标签,供上层的标签使用 maxCon属性指定每个读写实例连接池的最大连接。也就是说,标签内嵌套的 minCon属性指定每个读写实例连接池的最小连接,初始化连接池的大小 balance均衡负载的方式 balance="0":不开启读写分离机制,所有读操作都发送到当前可用的writeHost 上,即读请求仅发送到writeHost上。 balance="1":读请求随机分发到当前writeHost对应的readHost和standby的writeHost上。即全部的readHost与stand by writeHost 参与 select 语句的负载均衡,简单的说,当双主双从模式(M1 ->S1 , M2->S2,并且 M1 与 M2 互为主备),正常情况下, M2,S1, S2 都参与 select 语句的负载均衡 balance="2":读请求随机分发到当前dataHost内所有的writeHost和readHost上。即所有读操作都随机的在writeHost、 readhost 上分发。 balance="3":读请求随机分发到当前writeHost对应的readHost上。即所有读请求随机的分发到 wiriterHost 对应的 readhost 执行, writerHost不负担读压力,注意 balance=3 只在 1.4 及其以后版本有,1.3 没有。 writeType写入方式 writeType="0":所有写操作发送到配置的第一个 writeHost,第一个挂了切到还生存的第二个writeHost,重新启动后已切换后的为准,切换记录在配置文件中:dnindex.properties . writeType="1":所有写操作都随机的发送到配置的 writeHost。 writeType="2":没实现。 dbType数据库类型,指定后端连接的数据库类型,目前支持二进制的mysql协议,还有其他使用JDBC连接的数据库。例如:mongodb、oracle、spark等 dbDriver属性指定连接后端数据库使用的,目前可选的值有native和JDBC。使用native的话,因为这个值执行的是二进制的mysql协议,所以可以使用mysql和maridb,其他类型的数据库则需要使用JDBC驱动来支持。从1.6版本开始支持postgresql的native原始协议 switchType主从切换(双主failover) switchType="-1":不自动切换 switchType="1":默认值,自动切换 switchType="2":基于MySQL主从同步的状态来决定是否切换。需修改heartbeat语句(即心跳语句):show slave status; switchType="3":基于Mysql Galera Cluster(集群多节点复制)的切换机制。需修改heartbeat语句(即心跳语句):show status like 'wsrep%' heartbeat心跳检测语句,注意语句结尾的分号要加 writeHost、readHost这两个标签都指定后端数据库的相关配置给mycat,用于实例化后端连接池,writeHost指定写实例、readHost指定读实例,组着这些读写实例来满足系统的要求。 --> <dataHost name="localhost1" maxCon="1000" minCon="10" balance="1" writeType="0" dbType="mysql" dbDriver="native" switchType="1" slaveThreshold="100"> <heartbeat>select user();</heartbeat> <writeHost host="hostM1" url="172.17.0.2:3306" user="root" password="123456"> <readHost host="hostS2" url="172.17.0.3:3306" user="root" password="123456"/> </writeHost> </dataHost> </mycat:schema>
四、vim /usr/local/mycat/conf/rule.xml
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE mycat:rule SYSTEM "rule.dtd">
<mycat:rule xmlns:mycat="http://io.mycat/">
<!--
name指定唯一的名字,用于标识不同的表规则
rule指定对物理表中的哪一列进行拆分和使用什么路由算法。columns 指定要拆分的列名字。algorithm 使用function标签中的name属性,连接表规则和具体路由算法
-->
<tableRule name="userrule">
<rule>
<columns>id</columns>
<algorithm>partition-by-long</algorithm>
</rule>
</tableRule>
<tableRule name="categoryrule">
<rule>
<columns>id</columns>
<algorithm>partition-by-jump-consistent-hash</algorithm>
</rule>
</tableRule>
<!--
name指定算法的名字。
class指定路由算法具体的类名字。
property为具体算法需要用到的一些属性
-->
<!--
枚举法分片
mapFile标识配置文件名称,与rule.xml同级
type默认值为0,0表示Integer,非零表示String,根据tableRule->rule->columns而定
defaultNode 默认节点:小于0表示不设置默认节点,大于等于0表示设置默认节点
默认节点的作用:枚举分片时,如果碰到不识别的枚举值,就让它路由到默认节点。如果不配置默认节点(defaultNode值小于0表示不配置默认节点),碰到不识别的枚举值就会报错,like this:can’t find datanode for sharding column:column_name val:ffffffff
-->
<function name="partition-by-file-map" class="io.mycat.route.function.PartitionByFileMap">
<property name="mapFile">partition-by-file-map.txt</property>
<property name="type">0</property>
<property name="defaultNode">0</property>
</function>
<!--
固定分片hash算法
该分片规则,就取id的二进制低10位,然后和1111111111相与得到一个结果,例如
1111转为二进制为10001010111,低10位为:0001010111,和1111111111相与后为:1010111=87
8888转为二进制为10001010111000,低10位:1010111000,和1111111111相与后:1010111000=696
partitionCount分区的数量,值为逗号隔开的相加
partitionLength分片范围列表,每个分区的长度,总长为1024(二进制1111111111就是1024)
平均分为4分片,因为partitionCount*partitionLength=1024,所以partitionCount=4,partitionLength=256
-->
<function name="partition-by-long" class="io.mycat.route.function.PartitionByLong">
<property name="partitionCount">4</property>
<property name="partitionLength">256</property>
</function>
<!--
范围约定,如果不在范围内,则不可插入
mapFile标识配置文件名称,与rule.xml同级
如:
# range start-end ,data node index
# K=1000,M=10000.
0-500M=0
500M-1000M=1
1000M-1500M=2
或
0-10000000=0
10000001-20000000=1
-->
<function name="auto-partition-by-long" class="io.mycat.route.function.AutoPartitionByLong">
<property name="mapFile">auto-partition-by-long.txt</property>