MySQL InnoDB技术内幕:内存管理、事务和锁
前面有多篇文章介绍过MySQL InnoDB的相关知识,今天我们要更深入一些,看看它们的内部原理和机制是如何实现的。
一、内存管理
我们知道,MySQl是一个存储系统,数据最后都写在磁盘上。我们以前也提到过,磁盘的速度特别是大容量的磁盘受磁头臂的影响,速度相对内存慢很多。所以Innodb实现了自己的缓存机制。
首先我们先看下Innodb对内存是如何使用和划分的,然后我们再看看它是如何保存热数据的。
1、主要模块和组成
(1) Buffer Pool
预分配的内存池
(2) Page
Buffer Pool的最小单位
(3) Free list
空闲Page组成的链表
(4) Flush list
脏页链表
(5) Page hash 表
维护内存Page和文件Page的映射关系
(6) LRU
内存淘汰算法
以上三种链表LRU list、Free list、Flush list 和内存池、Page hash 以及磁盘文件之间的映射关系如下图所示:
2、LRU算法
LRU,Least Recent Used,最近最少使用。每次将刚使用过的页面插到LRU队列的最前端,那么最少使用的排在尾端,当缓存不够时,淘汰尾端的页。
Linux内存管理、文件系统和很多开源库的内存的淘汰算法都用到了LRU,以前有不少文章都提到过。
但是LRU的缺陷是,有时会无法淘汰真正的冷数据,尾端的数据可能暂时没使用而已,不代表不使用频繁,不代表不是热数据。所以很多系统对LRU进行了优化。
比如Redis加了LFU(least frequently used最不经常使用)配合LRU一起使用。
那么InnoDB存储引擎是如何改进的呢?如下图,它将LRU分成两部分,中间的分割点叫做midpoint,新读取的页不再是加入到最头部,而是midpoint后面的位置,即后半截的头部。
那么midpoint的位置是如何计算的呢,在默认配置下,离LRU整个头部的5/8处。当然这个比例是可以根据实际业务进行设置的。但总之,可以真正将冷热数据分离,热数据在前,冷数据在后。
那么这两个区的数据如何移动的呢,即冷热数据如何切换的呢?
上面我们提到了,刚插入的页放在old区的头部,那么如果该页确实访问频繁,不能一直呆在该位置吧。
InnoDB引入了参数innodb_old_blocks_time,如果old区的数据在该时间范围内没有被淘汰出去,就可以移到new区,加入到new区的头部。这也叫做made young。
而如果在old呆的时间不够innodb_old_blocks_time,而且缓存不够时,就会面临直接淘汰,这就叫做made not young。这种情况,可以发生在全表扫描的时候,保证了new区的数据才是真正的热数据!
当然数据也有可能从new区移动到old区,只是相对比较简单了,直接移动midpoint指向的位置即可。即new区的尾巴变成了old区的头部。
二、事务
1、MySQL事务基本概念
事务特性
A(Atomicity原子性):全部成功或全部失败
I(Isolation隔离性):并行事务之间互不干扰
D(Durability持久性):事务提交后,永久生效
C(Consistency一致性):通过AID保证
并发问题
脏读(Drity Read):读取到未提交的数据。中间所有变化的值都可能读到。
不可重复读(Non-repeatable read):两次读取结果不同。读取已提交的(不一样的值),读到的值变化数量比脏读要少。
幻读(Phantom Read):select 操作得到的结果所表征的数据状态影响(无法支撑)后续的业务操作。
网上有人这样区分,脏读是读取修改的数据,幻读是读取新提交的数据。我认为也可以,或许phantom表示虚幻的新数据(所以无法支撑后续操作),而drity代表了修改的意思呢?
所以,不可重复读重点在于update和delete,而幻读的重点在于insert。
隔离级别
Read Uncommitted(读取未提交内容):最低隔离级别,会读取到其他事务未提交的数据;存在脏读的问题。
Read Committed(读取提交内容):事务过程中可以读取到其他事务已提交的数据;存在不可重复读的问题。
Repeatable Read(可重复读):每次读取相同结果集,不管其他事务是否提交;存在幻读的问题。
Serializable(串行化):事务排队,隔离级别最高,性能最差。
2、MySQL事务实现原理
从上我们可以看出事务有ACID四大特性,而“I”隔离性是通过锁来实现的,我们下一节讲述。那么其他三个特性主要通过undo/redo日志的机制来实现,这个知识点在前面有一篇文章中介绍和对比过。现在我们站在事务实现的角度再来看看。
(1)undo log
回滚日志,顾名思义,是对事务rollback时使用。这是它核心的功能之一,但是它还有另一个非常重要的功能,MVCC。所以今天这里主要介绍它是如何在事务中发挥作用的。
MVCC
Multiversion concurrency control,多版本并发控制。当用户读取一行时,如果该记录已经被其他事务占用,当前事务可以通过undo读取之前的行版本信息(快照数据),以此实现非锁定读。所以实现了非阻塞的读操作,写操作也只锁定必要的行。即解决读-写冲突。
快照数据就是当前行数据的历史版本,每行记录可能含有多个版本。那该读取哪个版本呢?
首先,InnoDB的每行记录或者说每条数据,除了记录用户定义的列之外,还有两个隐藏的列:事务ID列DB_TRX_ID和回滚指针DB_ROLL_PTR。如果该表没有定义主键,每行还会增加一个rowid列。DB_TRX_ID是当时执行这条sql的事务id,DB_ROLL_PTR指向的就是undo log中修改前的行DB_ROW_ID。所以对同一条数据的修改,通过roll_pointer就形成了undo log版本链。
然后我们再来介绍下Read View快照读。
一般情况下读取数据时会生成一个Read View,对当前该行的可能正在进行的事务进行一个快照。
Read View中主要包含4个比较重要的内容:
-
m_ids:表示在生成Read View时当前系统中活跃的读写事务的事务id列表,简称活跃列表。
-
min_trx_id:表示在生成Read View时当前系统中活跃的读写事务中最小的事务id,也就是m_ids中的最小值。
-
max_trx_id:表示生成Read View时系统中应该分配给下一个事务的id值,,也就是m_ids中的最大值。
-
creator_trx_id:表示生成该Read View的事务的事务id。
有了这些信息,这样在访问某条记录时,只需要依次判断undo log版本链中节点的事务ID是否可见,如果可见即找到了所需要的行记录。
最后,READ COMMITTED和REPEATABLE READ两种隔离级别对于快照数据生成的时机不一样。
对于RC,在每次查询语句执行的过程中,都关闭Read View, 再创建当前的一份Read View。这样就会产生不可重复读现象。
对于RR,创建事务trx结构的时候,就生成了当前的global Read View,一直维持到事务结束。在事务结束这段时间内每一次查询都不会重新重建Read View,从而实现了可重复读。
undo log分为两种格式,处理不一样。
insert undo log:用于回滚,提交即清理;不需要进行purge操作。
update undo log:用于回滚,同时实现快照读,不能随便删除,所以需要等待purge线程来判断何时删除。它记录的是对delete和update的操作产生的undo log。
注:以上来自书上的说法,网上有人把第一种说成delete undo log,包括insert和delete操作,供参考。
还需要补充一点的是,update undo log怎样去清理,应该是根据系统活跃的Read view中最小的活跃事务ID之前的即可清除。
(2)redo log
redo日志其实在《MySQL的undo/redo日志和binlog日志,以及2PC》文章中介绍比较多,也提到了XA事务的2PC。我们这里简单介绍下普通事务的流程。
写入流程仍然可以分为两步,类似二阶段提交:
-
记录页的修改,状态为prepare
-
事务提交,讲事务记录为commit状态
三、锁
1、InnoDB锁种类
(1) 类型
共享锁(S)
读锁,可以同时被多个事务获取,阻止其他事务对记录的修改。
排他锁(X)
写锁,只能被一个事务获取,允许获得锁的事务修改数据。
而读其实又可以分为当前读(锁定读)和快照读(非锁定读),而快照读通过上一节描述的MVCC来实现。
当前读, 读取的是最新版本,所以需要对读取的记录加锁,阻塞其他事务改动该记录。当前读又分为两种方式:
select...for update,对读取的行加X锁;
select...lock in share mode,对读取的行加S锁。
(2)锁粒度
行级锁
Record Lock,单个记录上的锁。
锁直接加在索引记录上面,锁住的是key,所以必须是聚簇索引或者二级索引是唯一索引。
间隙锁
Gap Lock,间隙锁,锁定一个范围,但不包含记录本身。
InnoDB存储引擎的隔离级别默认是Repeatable Read,所以引入了间隙锁解决可重复读模式下的幻读问题。
GAP锁不是加在记录上,锁住的位置是两条记录之间的GAP;保证两次当前读返回一致的记录。
所以两次当前读之前,其他的事务不会插入新的满足条件的记录。
我们来整理下着两者的关系和区别。
Record Lock针对的是索引必须具备唯一性;而GAP锁针对的是索引不具备唯一性但需要保证可重复读,也就是说如果发现数据有被其他事务修改的可能,那就把前后间隙都加上锁。
比如说如下图,有个用户表,uid为主键,那么就只需要103这条记录加上行锁即可。
但是如果我们变化下查询条件(phone列上建立了二级索引),则除了对于这两条记录加锁外,对前后的间隙也需要加锁。当然这种情况是针对RR的隔离级别,如果隔离级别是RC或者更低,安全性就没有这么高,系统会自动降级到行锁。
Next-Key Lock,是Record Lock与Gap Lock的一个结合。理解了上述两种锁的原理,对于它而言就很容易了。
表级锁
Table Lock,锁定整张表。
主要用在运维的时候,对表格进行操作比如MDL或者元数据的操作(meta data lock)等等。
当然有些情况下会触发锁升级:全表扫描。全表扫描的触发一般情况下是当前被查询的字段没有建立任何索引。
而表级锁事实上是对所有记录和所有的间隙都加上锁。
所以全表扫描的效率非常低,要尽量避免。
2、InnoDB加锁过程
如下图,当我们更新多条数据时,是一行一行的加锁。
所以当同时出现对多条记录交叉查询时,很容易出现AB-BA死锁,如下图操作。
附录
分库分表的建议:
是否分表
建议单表不超过1KW
分表方式
取模:存储均匀&访问均匀
按时间:冷热库
分库
按业务垂直分
水平查分多个库
参考:
《MySQL技术内幕InnoDB存储引擎》
内部培训资料