一、为什么需要分库分表

Posted on 2019-12-17 23:14  FLGB  阅读(3435)  评论(0编辑  收藏  举报
基于 Mycat 1.6.7.3 版本
1 为什么要分库分表
 1.1 数据库性能瓶颈的出现
    对于应用来说,如果数据库性能出现问题,要么是无法获取连接,是因为在高并发的情况下连接数不够了。要么是操作数据变慢,数据库处理数据的效率除了问题。要么
是存储出现问题,比如单机存储的数据量太大了,存储的问题也可能会导致性能的问题。归根结底都是受到了硬件的限制,比如 CPU,内存,磁盘,网络等等。但是我们优
化肯定不可能直接从扩展硬件入手,因为带来的收益和成本投入比例太比。所以我们先来分析一下,当我们处理数据出现无法连接,或者变慢的问题的时候,
我们可以从哪些层面入手。
 
 1.2 数据库优化方案对比
   数据库优化有很多层面。
   1.2.1 SQL 与索引
   因为 SQL 语句是在我们的应用端编写的,所以第一步,我们可以在程序中对 SQL 语句进行优化,最终的目标是用到索引。这个是容易的也是最常用的优化手段。
     1.2.2 表与存储引擎
    第二步,数据是存放在表里面的,表又是以不同的格式存放在存储引擎中的,所以我们可以选用特定的存储引擎,或者对表进行分区,对表结构进行拆分或者冗余处理,
    或者对表结构比如字段的定义进行优化。
     1.2.3 架构
    第三步,对于数据库的服务,我们可以对它的架构进行优化。如果只有一台数据库的服务器,我们可以运行多个实例,做集群的方案,做负载均衡。或者基于主从复制实现读写分离,让写的服务都访问 master 服务器,读的请求都访
          问从服务器,slave 服务器自动 master 主服务器同步数据。或者在数据库前面加一层缓存,达到减少数据库的压力,提升访问速度的目的。为了分散数据库服务的存储压力和访问压力,我们也可以把不同的数据分布到不同的服务节点,
    这个就是分库分表(scale out)。注意主从(replicate)和分片(shard)的区别:主从通过数据冗余实现高可用,和实现读写分离。分片通过拆分数据分散存储和访问压力。
         1.2.4 配置
              第四步,是数据库配置的优化,比如连接数,缓冲区大小等等,优化配置的目的都是为了更高效地利用硬件。
        1.2.5 操作系统与硬件
             最后一步操作系统和硬件的优化。
从上往下,成本收益比慢慢地在增加。所以肯定不是查询一慢就堆硬件,堆硬件叫做向上的扩展(scale up)。
 
什么时候才需要分库分表呢?我们的评判标准是什么?如果是数据量的话,一张表存储了多少数据的时候,才需要考虑分库分表?
如果是数据增长速度的话,每天产生多少数据,才需要考虑做分库分表?如果是应用的访问情况的话,查询超过了多少时间,有多少请求无法获取连接,才需要分库分表?
这是一个值得思考的问题。
 
  1.3 架构演进与分库分表
    1.3.1 单应用单数据库
      2013 年的时候,我们公司采购了一个消费金融核心系统,这个是一个典型的单体架构的应用。同学们应该也很熟悉,单体架构应用的特点就是所有的代码都在一个工程里面,打成
    一个 war 包部署到 tomcat,最后运行在一个进程中。
    这套消费金融的核心系统,用的是 Oracle 的数据库,初始化以后有几百张表,比如客户信息表、账户表、商户表、产品表、放款表、还款表等等。
             

 

 

  为了适应业务的发展,我们这一套系统不停地在修改,代码量越来越大,系统变得越来越臃肿。为了优化系统,我们搭集群,负载均衡,加缓存,优化数据库,优化业务代码系统,但是都应对不了系统的访问压力。
  所以这个时候系统拆分就势在必行了。我们把以前这一套采购的核心系统拆分出来很多的子系统,比如提单系统、商户管理系统、信审系统、合同系统、代扣系统、催收系统,所有的系统都依旧共用一套 Oracle 数据库。
  1.3.2 多应用单数据库
    对代码进行了解耦,职责进行了拆分,生产环境出现问题的时候,可以快速地排查和解决
             

 

     

这种多个子系统共用一个 DB 的架构,会出现一些问题。第一个就是所有的业务系统都共用一个 DB,无论是从性能还是存储的角度来说,都是满足不了需求的。随着我们的业务继续膨胀,我们又会增加更多的系统来访问核心数
据库,但是一个物理数据库能够支撑的并发量是有限的,所有的业务系统之间还会产生竞争,最终会导致应用的性能下降,甚至拖垮业务系统。 
                            

 

 

所以,分库其实是我们在解决系统性能问题的过程中,对系统进行拆分的时候带来的一个必然的结果。现在的微服务架构也是一
样的,只拆应用不拆分数据库,不能解决根本的问题。
  1.3.4 什么时候分表
  
当我们对原来一个数据库的表做了分库以后,其中一些表的数据还在以一个非常快这个时候查询也已经出现了非常明显的效率下降,
所以,在分库之后,还需要进一步进行分表。当然,我们最开始想到的可能是在一个数据库里面拆分数据,分区或者分表,到后面才是切分到多个数据库中。
分表主要是为了减少单张表的大小,解决单表数据量带来的性能问题
                           

 

 

我们需要清楚的是,分库分表会提升系统的复杂度,如果在近期或者未来一段时间内必须要解决存储和性能的问题,就不要去做超前设计和过度设计。就像我们搭建项目,从快速实现的角度来说,肯定是从单体项目起步的,在业务丰富完善之前,也用不到微服务架构。如果我们创建的表结构合理,字段不是太多,并且索引创建正确的情况下,单张表存储几千万的数据是完全没有问题的,这个还是以应用的实际情况为准。当然我们也会对未来一段时间的业务发展做一个预判
2 分库分表的类型和特点
从维度来说分成两种,一种是垂直,一种是水平。
垂直切分:基于表或字段划分,表结构不同。我们有单库的分表,也有多库的分库。
水平切分:基于数据划分,表结构相同,数据不同,也有同库的水平切分和多库的切分。 
    

 

 

2.1 垂直切分
垂直分表有两种,一种是单库的,一种是多库的。
  2.1.1 单库垂直分表
    单库分表,比如:商户信息表,拆分成基本信息表,联系方式表,结算信息表,附件表等等。
  2.1.2 多库垂直分表
    多库垂直分表就是把原来存储在一个库的不同的表,拆分到不同的数据库。
 
比如:消费金融核心系统数据库,有很多客户相关的表,这些客户相关的表,全部单独存放到客户的数据库里面。合同,放款,风控相关的业务表也是一样的。
 
          

 

         

 

 

当我们对原来的一张表做了分库的处理,如果某些业务系统的数据还是有一个非常快的增长速度,比如说还款数据库的还款历史表,数据量达到了几个亿,这个时候硬件
限制导致的性能问题还是会出现,所以从这个角度来说垂直切分并没有从根本上解决单库单表数据量过大的问题。在这个时候,我们还需要对我们的数据做一个水平的切分。
 
2.2 水平切分
  当我们的客户表数量已经到达数千万甚至上亿的时候,单表的存储容量和查询效率都会出现问题,我们需要进一步对单张表的数据进行水平切分。水平切分的每个数据库的表结构都是一样的,只是存储的数据不一样,比如每个库存储 1000 万的数据。水平切分也可以分成两种,一种是单库的,一种是多库的。
  2.2.1 单库水平分表
  银行的交易流水表,所有进出的交易都需要登记这张表,因为绝大部分时候客户都是查询当天的交易和一个月以内的交易数据,所以我们根据使用频率把这张表拆分成三张表:
  当天表:只存储当天的数据。
  当月表:在夜间运行一个定时任务,前一天的数据,全部迁移到当月表。用的是 insert into select,然后 delete。
  历史表:同样是通过定时任务,把登记时间超过 30 天的数据,迁移到 history
  历史表(历史表的数据非常大,我们按照月度,每个月建立分区)。
  费用表:
    消费金融公司跟线下商户合作,给客户办理了贷款以后,消费金融公司要给商户返
    费用,或者叫提成,每天都会产生很多的费用的数据。为了方便管理,我们每个月建立一张费用表,例如 fee_detail_201901……fee_detail_201912
    
  但是注意,跟分区一样,这种方式虽然可以一定程度解决单表查询性能的问题,但是并不能解决单机存储瓶颈的问题
2.2.2 多库水平分表
  另一种是多库的水平分表。比如客户表,我们拆分到多个库存储,表结构是完全一样的。
  

 

 

一般我们说的分库分表都是跨库的分表。既然分库分表能够帮助我们解决性能的问题,那我们是不是马上动手去做,甚至在项目设计的时候就先给它分几个库呢?先冷静
一下,我们来看一下分库分表会带来哪些问题,也就是我们前面说的分库分表之后带来的复杂性。
 
2.3 多案分库分表带来的问题
  2.3.1 跨库关联查询
    比如查询在合同信息的时候要关联客户数据,由于是合同数据和客户数据是在不同的数据库,那么我们肯定不能直接使用 join 的这种方式去做关联查询。
    我们有几种主要的解决方案:
      
      1、字段冗余
        比如我们查询合同库的合同表的时候需要关联客户库的客户表,我们可以直接把一些经常关联查询的客户字段放到合同表,通过这种方式避免跨库关联查询的问题。
      2、数据同步:比如商户系统要查询产品系统的产品表,我们干脆在商户系统创建一张产品表,通过 ETL 或者其他方式定时同步产品数据。
      3、全局表(广播表) 比如行名行号信息被很多业务系统用到,如果我们放在核心系统,每个系统都要去关联查询,这个时候我们可以在所有的数据库都存储相同的基础数据。
      4、ER 表(绑定表)
        我们有些表的数据是存在逻辑的主外键关系的,比如订单表 order_info,存的是汇总的商品数,商品金额;订单明细表 order_detail,是每个商品的价格,个数等等。或者
       叫做从属关系,父表和子表的关系。他们之间会经常有关联查询的操作,如果父表的数据和子表的数据分别存储在不同的数据库,跨库关联查询也比较麻烦。所以我们能不能
       把父表和数据和从属于父表的数据落到一个节点上呢?
       比如 order_id=1001 的数据在 node1,它所有的明细数据也放到 node1;order_id=1002 的数据在 node2,它所有的明细数据都放到 node2,这样在关联查询的时候依然是在
          一个数据库。
    上面的思路都是通过合理的数据分布避免跨库关联查询,实际上在我们的业务中,也是尽量不要用跨库关联查询,如果出现了这种情况,就要分析一
    下业务或者数据拆分是不是合理。如果还是出现了需要跨库关联的情况,那我们就只能用最后一种办法
    5、系统层组装
      在不同的数据库节点把符合条件数据的数据查询出来,然后重新组装,返回给客户端
  2.3.2 分布式事务
    比如在一个贷款的流程里面,合同系统登记了数据,放款系统也必须生成放款记录,如果两个动作不是同时成功或者同时失败,就会出现数据一致性的问题。如果在
  一个数据库里面,我们可以用本地事务来控制,但是在不同的数据库里面就不行了。所以分布式环境里面的事务,我们也需要通过一些方案来解决。复习一下。分布式系统的基础是 CAP 理论。
    1.C (一致性) Consistency:对某个指定的客户端来说,读操作能返回最新的写操作。对于数据分布在不同节点上的数据来说,如果在某个节点更新了数据,那么在其他节点
    如果都能读取到这个最新的数据,那么就称为强一致,如果有某个节点没有读取到,那就是分布式不一致。
    2.A (可用性) Availability:非故障的节点在合理的时间内返回合理的响应(不是错误和超时的响应)。可用性的两个关键一
    个是合理的时间,一个是合理的响应。合理的时间指的是请求不能无限被阻塞,应该在合理的时间给出返回。合理的响应指的是系统应该明确返回结果并且结果是正确的
    3.P (分区容错性) Partition tolerance:当出现网络分区后,系统能够继续工作。打个比方,这里集群有多台机器,有台机器网络出现了问题,但是这个集群仍然可以正工作。
 
    CAP 三者是不能共有的,只能同时满足其中两点。基于 AP,我们又有了 BASE 理论。基本可用(Basically Available):分布式系统在出现故障时,允许损失部分可用功能,保证核心功能可用。 
    软状态(Soft state):允许系统中存在中间状态,这个状态不影响系统可用性,这里指的是 CAP 中的不一致。
    最终一致(Eventually consistent):最终一致是指经过一段时间后,所有节点数据都将会达到一致
    分布式事务有几种常见的解决方案:
    1、全局事务(比如 XA 两阶段提交;应用、事务管理器(TM)、资源管理器(DB)),
    例如 Atomikos 两阶段提交
    
    2、基于可靠消息服务的分布式事务
      

 

       

    3、柔性事务 TCC(Try-Confirm-Cancel)tcc-transaction
      

 

       

      4、最大努力通知,通过消息中间件向其他系统发送消息(重复投递+定期校对)
  2.3.3 排序、翻页、函数计算问题
    跨节点多库进行查询时,会出现 limit 分页,order by 排序的问题。比如有两个节点,节点 1 存的是奇数 id=1,3,5,7,9……;节点 2 存的是偶数 id=2,4,6,8,10……
  执行 select*from user_info order by id limit 0,10需要在两个节点上各取出 10 条,然后合并数据,重新排序。max、min、sum、count 之类的函数在进行计算的时候,
  也需要先在每个分片上执行相应的函数,然后将各个分片的结果集进行汇总和再次计算,最终将结果返回
 
  2.3.4 全局主键避重问题
    MySQL 的数据库里面字段有一个自增的属性,Oracle 也有 Sequence 序列。如果是一个数据库,那么可以保证 ID 是不重复的,但是水平分表以后,每个表都按照自己的规律自增,
  肯定会出现 ID 重复的问题,这个时候我们就不能用本地自增的方式了。
    我们有几种常见的解决方案:
    1)UUID(Universally Unique Identifier 通用唯一识别码)   
    UUID 标准形式包含 32 个 16 进制数字,分为 5 段,形式为 8-4-4-4-12 的 36 个字符,例如:c4e7956c-03e7-472c-8909-d733803e79a9
    xxxxxxxx-xxxx-Mxxx-Nxxx-xxxxxxxxxxxx
    M 表示 UUID 版本,目前只有五个版本,即只会出现 1,2,3,4,5,数字 N 的一至三个最高有效位表示 UUID 变体,目前只会出现 8,9,a,b 四种情况。
    1、基于时间和 MAC 地址的 UUID
    2、基于第一版却更安全的 DCE UUID
    3、基于 MD5 散列算法的 UUID
    4、基于随机数的 UUID——用的最多,JDK 里面是 4
    5、基于 SHA1 散列算法的 UUID
    UUID 是主键是最简单的方案,本地生成,性能高,没有网络耗时。但缺点也很明显,由于 UUID 非常长,会占用大量的存储空间;另外,作为主键建立索引和基于索引进行
    查询时都会存在性能问题,在 InnoDB 中,UUID 的无序性会引起数据位置频繁变动,导致分页。
    2) 数据库 把序号维护在数据库的一张表中。这张表记录了全局主键的类型、位数、起始值,当前值。当其他应用需要获得全局 ID 时,先 for update 锁行,取到值+1 后并且更新后 返回。并发性比较差。
    3)Redis 基于 Redis 的 INT 自增的特性,使用批量的方式降低数据库的写压力,每次获取一 段区间的 ID 号段,用完之后再去数据库获取,可以大大减轻数据库的压力
    4)雪花算法 Snowflake(64bit)4)雪花算法 Snowflake(64bit)
      

 

     核心思想:

      a)使用 41bit 作为毫秒数,可以使用 69 年

      b)10bit 作为机器的 ID(5bit 是数据中心,5bit 的机器 ID),支持 1024 个 节点

      c)12bit 作为毫秒内的流水号(每个节点在每毫秒可以产生 4096 个 ID)

       d)最后还有一个符号位,永远是 0。

      代码:snowflake.SnowFlakeTest

      优点:毫秒数在高位,生成的 ID 整体上按时间趋势递增;不依赖第三方系统,稳定 性和效率较高,理论上 QPS 约为 409.6w/s(1000*2^12),并且整个分布式系统内不会 产生 ID 碰撞;可根据自身业务灵活分配 bit 位。

      不足就在于:强依赖机器时钟,如果时钟回拨,则可能导致生成 ID 重复。

    当我们对数据做了切分,分布在不同的节点上存储的时候,是不是意味着会产生多 个数据源?既然有了多个数据源,那么在我们的项目里面就要配置多个数据源。
    现在问题就来了,我们在执行一条 SQL 语句的时候,比如插入,它应该是在哪个数 据节点上面执行呢?又比如查询,如果只在其中的一个节点上面,我怎么知道在哪个节 点,是不是要在所有的数据库节点里面都查询一遍,才能拿到结果?
    那么,从客户端到服务端,我们可以在哪些层面解决这些问题呢?

  2.4 多数据源/读写数据源的解决方案

    我们先要分析一下 SQL 执行经过的流程。 DAO——Mapper(ORM)——JDBC——代理——数据库服务   

     2.4.1 客户端 DAO 层
        第一个就是在我们的客户端的代码,比如 DAO 层,在我们连接到某一个数据源之前, 我们先根据配置的分片规则,判断需要连接到哪些节点,再建立连接。
        Spring 中提供了一个抽象类 AbstractRoutingDataSource,可以实现数据源的动态 切换
     。。。   

     2.4.4 代理层

        前面三种都是在客户端实现的,也就是说不同的项目都要做同样的改动,不同的编 程语言也有不同的实现,
        所以我们能不能把这种选择数据源和实现路由的逻辑提取出来, 做成一个公共的服务给所有的客户端使用呢?
        这个就是第四层,代理层。比如 Mycat 和 Sharding-Proxy,都是属于这一层

 

Copyright © 2024 FLGB
Powered by .NET 9.0 on Kubernetes