数据库-容量(转)
1. 典型数据库架构设计与实践
1). 单库架构
2). 分组架构
什么是分组?
答:分组架构是最常见的一主多从,主从同步,读写分离数据库架构:
-
user-service:依旧是用户中心服务
-
user-db-M(master):主库,提供数据库写服务
-
user-db-S(slave):从库,提供数据库读服务
主和从构成的数据库集群称为“组”。
分组有什么特点?
答:同一个组里的数据库集群:
-
主从之间通过binlog进行数据同步
-
多个实例数据库结构完全相同
-
多个实例存储的数据也完全相同,本质上是将数据进行复制
分组架构究竟解决什么问题?
答:大部分互联网业务读多写少,数据库的读往往最先成为性能瓶颈,如果希望:
线性提升数据库读性能
-
通过消除读写锁冲突提升数据库写性能
-
通过冗余从库实现数据的“读高可用”
此时可以使用分组架构,需要注意的是,分组架构中,数据库的主库依然是写单点。
一句话总结,分组解决的是“数据库读写高并发量高”问题,所实施的架构设计。
3). 分片架构
什么是分片?
答:分片架构是大伙常说的水平切分(sharding)数据库架构:
-
user-service:依旧是用户中心服务
-
user-db1:水平切分成2份中的第一份
-
user-db2:水平切分成2份中的第二份
分片后,多个数据库实例也会构成一个数据库集群。
水平切分,到底是分库还是分表?
答:强烈建议分库,而不是分表,因为:
-
分表依然公用一个数据库文件,仍然有磁盘IO的竞争
-
分库能够很容易的将数据迁移到不同数据库实例,甚至数据库机器上,扩展性更好
水平切分,用什么算法?
答:常见的水平切分算法有“范围法”和“哈希法”:
范围法如上图:以用户中心的业务主键uid为划分依据,将数据水平切分到两个数据库实例上去:
-
user-db1:存储0到1千万的uid数据
-
user-db2:存储0到2千万的uid数据
哈希法如上图:也是以用户中心的业务主键uid为划分依据,将数据水平切分到两个数据库实例上去:
-
user-db1:存储uid取模得1的uid数据
-
user-db2:存储uid取模得0的uid数据
这两种方法在互联网都有使用,其中哈希法使用较为广泛。
分片有什么特点?
答:同一个分片里的数据库集群:
-
多个实例之间本身不直接产生联系,不像主从间有binlog同步
-
多个实例数据库结构,也完全相同
-
多个实例存储的数据之间没有交集,所有实例间数据并集构成全局数据
分片架构究竟解决什么问题?
答:大部分互联网业务数据量很大,单库容量容易成为瓶颈,此时通过分片可以:
-
线性提升数据库写性能,需要注意的是,分组架构是不能线性提升数据库写性能的
-
降低单库数据容量
一句话总结,分片解决的是“数据库数据量大”问题,所实施的架构设计。
4). 分组+分片架构
如果业务读写并发量很高,数据量也很大,通常需要实施分组+分片的数据库架构:
-
通过分片来降低单库的数据量,线性提升数据库的写性能
-
通过分组来线性提升数据库的读性能,保证读库的高可用
5). 垂直切分
除了水平切分,垂直切分也是一类常见的数据库架构设计,垂直切分一般和业务结合比较紧密。
还是以用户中心为例,可以这么进行垂直切分:
User(uid, uname, passwd, sex, age, …)
User_EX(uid, intro, sign, …)
-
垂直切分开的表,主键都是uid
-
登录名,密码,性别,年龄等属性放在一个垂直表(库)里
-
自我介绍,个人签名等属性放在另一个垂直表(库)里
如何进行垂直切分?
答:根据业务对数据进行垂直切分时,一般要考虑属性的“长度”和“访问频度”两个因素:
-
长度较短,访问频率较高的放在一起
-
长度较长,访问频度较低的放在一起
这是因为,数据库会以行(row)为单位,将数load到内存(buffer)里,在内存容量有限的情况下,长度短且访问频度高的属性,内存能够load更多的数据,命中率会更高,磁盘IO会减少,数据库的性能会提升。
垂直切分有什么特点?
答:垂直切分和水平切有相似的地方,又不太相同:
-
多个实例之间也不直接产生联系,即没有binlog同步
-
多个实例数据库结构,都不一样
-
多个实例存储的数据之间至少有一列交集,一般来说是业务主键,所有实例间数据并集构成全局数据
垂直切分解决什么问题?
答:垂直切分即可以降低单库的数据量,还可以降低磁盘IO从而提升吞吐量,但它与业务结合比较紧密,并不是所有业务都能够进行垂直切分的。
6). 总结
文章较长,希望至少记住这么几点:
-
业务初期用单库
-
读压力大,读高可用,用分组
-
数据量大,写线性扩容,用分片
-
属性短,访问频度高的属性,垂直拆分到一起
2. 1对多业务,数据库水平切分架构一次搞定
1). 在数据量较大,并发量较大的时候,通常通过元数据与索引数据分离的架构来满足不同类型的需求:
tid和uid上的查询需求,可以由tiezi-center从元数据读取并返回
其他类检索需求,可以由tiezi-search从索引数据检索并返回
2). 帖子中心元数据设计
数据库设计上,在业务初期,单库就能满足元数据存储要求,
在相关字段上建立索引,就能满足相关业务需求:
帖子记录查询,通过tid查询,约占读请求量90%
select * from t_tiezi where tid=$tid
帖子列表查询,通过uid查询其发布的所有帖子,约占读请求量10%
select * from t_tiezi where uid=$uid
3). 帖子中心水平切分-tid切分法
当数据量越来越大时,需要对帖子数据的存储进行线性扩展。
既然是帖子中心,并且帖子记录查询量占了总请求的90%,很容易想到通过tid字段取模来进行水平切分:
这个方法简单直接,
优点:
a.100%写请求可以直接定位到库
b.90%的读请求可以直接定位到库
缺点:一个用户发布的所有帖子可能会落到不同的库上,10%的请求通过uid来查询会比较麻烦
4). 帖子中心水平切分-uid切分法
有没有一种切分方法,确保同一个用户发布的所有帖子都落在同一个库上,而在查询一个用户发布的所有帖子时,不需要去遍历所有的库呢?
答:使用uid来分库可以解决这个问题。
新出现的问题:如果使用uid来分库,确保了一个用户的帖子数据落在同一个库上,那通过tid来查询,就不知道这个帖子落在哪个库上了,岂不是还需要遍历全库,需要怎么优化呢?
答:tid的查询是单行记录查询,只要在数据库(或者缓存)记录tid到uid的映射关系,就能解决这个问题。
新增一个索引库:
t_mapping(tid, uid);
这个库只有两列,可以承载很多数据
即使数据量过大,索引库可以利用tid水平切分
这类kv形式的索引结构,可以很好的利用cache优化查询性能
一旦帖子发布,tid和uid的映射关系就不会发生变化,cache的命中率会非常高
使用uid分库,并增加索引库记录tid到uid的映射关系之后,每当有uid上的查询:
可以通过uid直接定位到库。
每当有tid上的查询:
先查询索引表,通过tid查询到对应的uid
再通过uid定位到库
这个方法的优点:一个用户发布的所以帖子落在同一个库上; 10%的请求过过uid来查询列表,可以直接定位到库 ; 索引表cache命中率非常高,因为tid与uid的映射关系不会变
缺点:90%的tid请求,以及100%的修改请求,不能直接定位到库,需要先进行一次索引表的查询,当然这个查询非常块,通常在5ms内可以返回;
数据插入时需要操作元数据与索引表,可能引发潜在的一致性问题
5). 帖子中心水平切分-基因法
有没有一种方法,既能够通过uid定位到库,又不需要建立索引表来进行二次查询呢,这就是本文要叙述的“1对多”业务分库最佳实践,基因法。
什么是分库基因?
通过uid分库,假设分为16个库,采用uid%16的方式来进行数据库路由,这里的uid%16,其本质是uid的最后4个bit决定这行数据落在哪个库上,这4个bit,就是分库基因。
什么是基因法分库?
在“1对多”的业务场景,使用“1”分库,在“多”的数据id生成时,id末端加入分库基因,就能同时满足“1”和“多”的分库查询需求。
如上图所示,uid=666的用户发布了一条帖子(666的二进制表示为:1010011010):
使用uid%16分库,决定这行数据要插入到哪个库中
分库基因是uid的最后4个bit,即1010
在生成tid时,先使用一种分布式ID生成算法生成前60bit(上图中绿色部分)
将分库基因加入到tid的最后4个bit(上图中粉色部分)
拼装成最终的64bit帖子tid(上图中蓝色部分) (怎么生成60bit分布式唯一ID,请参见《分布式ID生成算法》)
这般,保证了同一个用户发布的所有帖子的tid,都落在同一个库上,tid的最后4个bit都相同,于是:
通过uid%16能够定位到库
通过tid%16也能定位到库
潜在问题一:同一个uid发布的tid落在同一个库上,会不会出现数据不均衡?
答:只要uid是均衡的,每个用户发布的平均帖子数是均衡的,每个库的数据就是均衡的。
潜在问题二:最开始分16库,分库基因是4bit,未来要扩充成32库,分库基因变成了5bit,那怎么办?
答:需要提前做好容量预估,例如事先规划好5年内数据增长256库足够,就提前预留8bit基因。
6). 总结
将以“帖子中心”为典型的“1对多”类业务,在架构上,采用元数据与索引数据分离的架构设计方法:
帖子服务,元数据满足uid和tid的查询需求
搜索服务,索引数据满足复杂搜索寻求
对于元数据的存储,在数据量较大的情况下,有三种常见的切分方法:
tid切分法,按照tid分库,同一个用户发布的帖子落在不同的库上,通过uid来查询要遍历所有库
uid切分法,按照uid分库,同一个用户发布的帖子落在同一个库上,需要通过索引表或者缓存来记录tid与uid的映射关系,通过tid来查询时,先查到uid,再通过uid定位库
基因法,按照uid分库,在生成tid里加入uid上的分库基因,保证通过uid和tid都能直接定位到库
对于1对多的业务场景,分库架构不再是瓶颈。
3. 多对多业务,数据库水平切分架构一次搞定
文字较多,希望尽量记住如下几点:
-
好友业务是一个典型的多对多关系,又分为强好友与弱好友
-
数据冗余是一个常见的多对多业务数据水平切分实践
-
冗余数据的常见方案有三种
(1)服务同步冗余
(2)服务异步冗余
(3)线下异步冗余
-
数据冗余会带来一致性问题,高吞吐互联网业务,要想完全保证事务一致性很难,常见的实践是最终一致性
-
最终一致性的常见实践是,尽快找到不一致,并修复数据,常见方案有三种
(1)线下全量扫描法
(2)线下增量扫描法
(3)线上实时检测法
4. 多key业务,数据库水平切分架构一次搞定
任何复杂难题的解决,都是一个化繁为简,逐步击破的过程。
对于像订单中心一样复杂的“多key”类业务,在数据量较大,需要对数据库进行水平切分时,对于后台需求,采用“前台与后台分离”的架构设计方法:
前台、后台系统web/service/db分离解耦,避免后台低效查询引发前台查询抖动
采用前台与后台数据冗余的设计方式,分别满足两侧的需求
采用“外置索引”(例如ES搜索系统)或者“大数据处理”(例如HIVE)来满足后台变态的查询需求
对于前台需求,化繁为简的设计思路,将“多key”类业务,分解为“1对多”类业务和“多对多”类业务分别解决:
-
使用“基因法”,解决“1对多”分库需求:使用buyer_uid分库,在oid中加入分库基因,同时满足oid和buyer_uid上的查询需求
-
使用“数据冗余法”,解决“多对多”分库需求:使用buyer_uid和seller_uid来分别分库,冗余数据,满足buyer_uid和seller_uid上的查询需求
-
如果oid/buyer_uid/seller_uid同时存在,可以使用上述两种方案的综合方案,来解决“多key”业务的数据库水平切分难题。
数据冗余会带来一致性问题,高吞吐互联网业务,要想完全保证事务一致性很难,常见的实践是最终一致性。
内容转自公众号:架构师之路