深入理解MySQL锁与事务隔离级别

1、锁定义

  锁是计算机协调多个进程或线程并发访问某一资源的机制。
  在数据库中,除了传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供需要用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。

2、锁分类

  • 从性能上分为 乐观锁(用版本对比来实现) 和 悲观锁
  • 从对数据库操作的类型分,分为 读锁 和 写锁(都属于悲观锁);

    读锁(共享锁):针对同一份数据,多个读操作可以同时进行而不会互相影响;
    写锁(排它锁):当前写操作没有完成前,它会阻断其他写锁和读锁;

  • 从对数据操作的粒度分,分为 表锁 和 行锁

2.1 表锁

每次操作锁住整张表。开销小,加锁快;不会出现死锁;锁定粒度大,发生锁冲突的概率最高,并发度最低;

#建表SQL(MyISAM存储引擎)
CREATE TABLE `mylock` (
  `id` INT (11) NOT NULL AUTO_INCREMENT,
  `NAME` VARCHAR (20) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE = MyISAM DEFAULT CHARSET = utf8;

#插入数据
INSERT INTO `mylock` (`id`, `NAME`) VALUES ('1', 'a');
INSERT INTO `mylock` (`id`, `NAME`) VALUES ('2', 'b');
INSERT INTO `mylock` (`id`, `NAME`) VALUES ('3', 'c');
INSERT INTO `mylock` (`id`, `NAME`) VALUES ('4', 'd');
  • 手动增加表锁: lock table 表名称 read(write), 表名称2 read(write);
  • 查看表上加过的锁:show open tables;
  • 删除表锁:unlock tables; 

表锁的使用:一般在数据的迁移中使用,使数据不会被修改;

(1)增加读锁

我们打开一个命令行窗口,执行以下 SQL:

当前session和其他session都可以读该表;
当前session中插入或者更新锁定的表都会报错,其他session插入或更新则会等待 ;

执行: show open tables;  结果如下,可以看到 mylock 表加锁了;

 

   我们重新打开一个MySQL 的连接窗口,执行 select * from mylock where id = 1;  发现是可以查询到数据的;接着我们执行  update mylock set  name 'zhangsan' where id = 1;  会发现这个更新的 SQL 会一直卡在这里不会执行结束,这是因为表加了读锁;

  在刚才加表锁的窗口中,我们执行 unlock tables; (删除表锁),可以看到发现更新的那个SQL语句给执行完成了;

(2)增加写锁

 当前session对该表的增删改查都没有问题,其他session对该表的所有操作被阻塞; 

结论:

MyISAM在执行查询语句(SELECT)前,会自动给涉及的所有表加读锁,在执行增删改操作前,会自动给涉及的表加写锁。
1、对MyISAM表的读操作(加读锁) ,不会阻寒其他进程对同一表的读请求,但会阻赛对同一表的写请求。只有当读锁释放后,才会执行其它进程的写操作。
2、对MylSAM表的写操作(加写锁) ,会阻塞其他进程对同一表的读和写操作,只有当写锁释放后,才会执行其它进程的读写操作
总结
简而言之,就是读锁会阻塞写,但是不会阻塞读。而写锁则会把读和写都阻塞。

 

2.2 行锁

每次操作锁住一行数据。开销大,加锁慢;会出现死锁;锁定粒度最小,发生锁冲突的概率最低,并发度最高。
InnoDBMYISAM 的最大不同有两点:

  • 支持事务(TRANSACTION)
  • 支持行级锁

2.2.1 行锁支持事务

  • 事务(Transaction)及其ACID属性

  事务是由一组SQL语句组成的逻辑处理单元,事务具有以下4个属性,通常简称为事务的ACID属性。
  原子性(Atomicity) :事务是一个原子操作单元,其对数据的修改,要么全都执行,要么全都不执行。
  一致性(Consistent) :在事务开始和完成时,数据都必须保持一致状态。这意味着所有相关的数据规则都必须应用于务的修改,以保持数据的完整性;事务结束时,所有的内部数据结构(如B树索引或双向链表)也都必须是正确的。
  隔离性(Isolation) :数据库系统提供一定的隔离机制,保证事务在不受外部并发操作影响的“独立”环境执行。这意味着事务处理过程中的中间状态对外部是不可见的,反之亦然。
  持久性(Durable) :事务完成之后,它对于数据的修改是永久性的,即使出现系统故障也能够保持。

  • 并发事务处理带来的问题

  更新丢失(Lost Update)
  当两个或多个事务选择同一行,然后基于最初选定的值更新该行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题–最后的更新覆盖了由其他事务所做的更新。
  脏读(Dirty Reads)
  一个事务正在对一条记录做修改,在这个事务完成并提交前,这条记录的数据就处于不一致的状态;这时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些“脏”数据,并据此作进一步的处理,就会产生未提交的数据依赖关系。这种现象被形象的叫做“脏读”。
  一句话:事务A读取到了事务B已经修改但尚未提交的数据,还在这个数据基础上做了操作。此时,如果B事务回滚,A读取的数据无效,不符合一致性要求。
  不可重读(Non-RepeatableReads)
  一个事务在读取某些数据后的某个时间,再次读取以前读过的数据,却发现其读出的数据已经发生了改变、或某些记录已经被删除了!这种现象就叫做“不可重复读”。
  一句话:事务A读取到了事务B已经提交的修改数据,不符合隔离性
  幻读(Phantom Reads)
  一个事务按相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据,这种现象就称为“幻读”。
  一句话:事务A读取到了事务B提交的新增数据,不符合隔离性。

  • 事务隔离级别

  "脏读”、“不可重复读”和“幻读”,其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。

隔离级别 脏读(Dirty Read) 不可重复读(NonRepeatable Read) 幻读(Pbantom Read)
读未提交(Read uncommitted) 可能 可能

可能

读已提交(Read committed) 不可能 可能 可能
可重复读(Repeatable Read) 不可能 不可能 可能
可串行化(Serializable) 不可能 不可能 不可能

  数据库的事务隔离越严格,并发副作用越小,但付出的代价也就越大,因为事务隔离实质上就是使事务在一定程度上“串行化”进行,这显然与“并发”是矛盾的。
  同时,不同的应用对读一致性和事务隔离程度的要求也是不同的,比如许多应用对“不可重复读"和“幻读”并不敏感,可能更关心数据并发访问的能力。

  查看当前数据库的事务隔离级别: show variables like 'tx_isolation';

  设置事务隔离级别:set tx_isolation = 'REPEATABLE-READ'; (MySQL的数据库隔离级别:可重复读)

2.2.2 行锁与隔离级别案例分析

示例表:

CREATE TABLE `account` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`balance` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `account` (`name`, `balance`) VALUES ('lilei', '450'); INSERT INTO `account` (`name`, `balance`) VALUES ('hanmei','16000'); INSERT INTO `account` (`name`, `balance`) VALUES ('lucy', '2400');

(1)行锁演示
一个session开启事务更新不提交,另一个session更新同一条记录会阻塞,更新不同记录不会阻塞;

(2)读未提交:
 <a> 开启事务A,并设置当前事务模式为 read uncommitted(读未提交),查询表account的初始值;set tx_isolation='read-uncommitted';

 <b> 在事务A的事务提交之前,开启事务B,更新表account;

 <c> 在事务A中,查询表数据,虽然事务B还没提交,但是事务A就可以查询到事务B更新的数据: 

 <d> 一旦事务B因为某种原因回滚,事务B所有的操作都将会被撤销,那事务B查询到的数据其实就是脏数据:

(3)读已提交

 <a> 开启事务A,并设置当前事务模式为 read committed(读已提交),查询表account的所有记录; set tx_isolation='read-committed';

 <b> 在事务A的事务提交之前,打开另一个事务B,更新表account(update account set balance = balance - 50 where id = 1);

 <c> 这时,事务B的事务还没提交,事务A去查询 account  的数据(select * from account),不能查询到B已经更新的数据,解决了脏读问题 ;

 <d> 现在将事务B的事务提交了,事务A在去查询数据(select * from account),结果与上一步不一致,即产生了不可重复读的问题

 (4)可重复读

<a> 开启事务A,并设置当前事务模式为 ’repeatable read‘,查询表account的所有记录(select * from account);set tx_isolation='repeatable-read';

<b> 在事务A的事务提交之前,开启另一个事务B,更新表 account 并提交(update account set balance = balance - 50 where id = 1);

 <c> 在事务A查询表 account 的所有记录,与步骤 <a> 查询结果一致,解决了不可重复读的问题

 <d> 在事务A,接着执行update account set balance = balance - 50 where id = 1,balance没有变成 400-50=350,lilei 的 balance 值用的是步骤<b> 中的350来算的,所以是300,数据的一致性倒是没有被破坏。可重复读的隔离级别下使用了MVCC(multi-version concurrency control)机制,select操作不会更新版本号,是快照读(历史版本);insert、update和delete会更新版本号,是当前读(当前版本)

 

 在可重复读隔离级别,MySQL会有一个 MVCC(多版本并发控制) 机制,它为了在事务并发的时候能够提高性能;

可以简单的理解:在事务开启的时候,查询就会生成一个快照,这个快照只在当前的事务有效,其他事务是读不到这个快照的,该事务提交之前每次读得都是第一次生成的快照;但是当该事务update的时候,是在已经提交的最后一次数据基础上更新的;

id name balance 创建事务ID 修改事务ID
1 zhangsan 400  5  
2 lisi 12000 6 7
3 wangwu 1500 5  
         
2 lisi 12000 7  

对于删除操作,mysql底层会记录好被删除的数据行的删除事务id,对于更新操作mysql底层会新增一行相同数据并记录好对应的创建事务id在id为12的事务里执行查询操作mysql底层会带上过滤条件,创建事务id <=max(当前事务id(12),快照点已提交最大事务id),删除事务id>max(当前事务id(12),快照点已提交最大事务id)

注意:begin/start transaction 命令并不是一个事务的起点,在执行到它们之后的第一个操作InnoDB 表的语句,事务才真正启动,才会向mysql申请事务id,mysql内部是严格按照事务的启动顺序来分配事务id的

(5)幻读
<a> 开启事务A,然后查询一下 account 的数据;

<b> 开启事务B,向表里插入一条记录,接着提交事务;

<c> 在事务A中,执行 update 的操作,然后再去表里查询,发现数据多了一条出来

(6)串行化

设置事务的隔离级别:set tx_isolation='serializable'; 

串行化:上一个事务提交之后,下一个事务才能操作,针对的是整个数据库;

mysql中事务隔离级别为serializable时会锁表,因此不会出现幻读的情况,这种隔离级别并发性极低,开发中很少会用到。 

问题:Mysql默认级别是 repeatable-read,有办法解决幻读问题吗?

答案:间隙锁在某些情况下可以解决幻读问题;

间隙锁

间隙锁,它封锁索引记录中的间隔。

对于以下表中的主键ID,id 在 3 ~ 8 就是一个间隙,id 在 10 ~ 20 是一个间隙,id 在 20 ~ 正无穷 是一个间隙;

 在事务A中执行 update account set name ='wangt' where id > 10 and id <=20;  执行这个SQL语句就会将  10 ~ 20 这个间隙锁住,这个时候去在另外一个事务B中去插入 id = 18 的记录,则插入不进去的;这样可以间接的解决幻读的问题;

无索引行锁会升级为表锁

锁主要是加在索引上,如果对非索引字段更新, 行锁可能会变表锁;

例如,在 session1 中 执行 update account set balance = 800 where name = 'lilei';  在 session2 中对 account 表任意一行做操作,都会阻塞住;

InnoDB的行锁是针对索引加的锁,不是针对记录加的锁。并且该索引不能失效,否则都会从行锁升级为表锁;

 锁定某一行还可以用 lock in share mode(共享锁)  或 for update(排它锁),例如:select * from test_innodb_lock where a = 2 for update;这样其他session只能读这行数据,修改则会被阻塞,直到锁定行的session提交;

2.2.3 结论

  Innodb存储引擎由于实现了行级锁定,虽然在锁定机制的实现方面所带来的性能损耗可能比表级锁定会要更高一下,但是在整体并发处理能力方面要远远优于MYISAM的表级锁定的。当系统并发量高的时候,Innodb的整体性能和MYISAM相比就会有比较明显的优势了。

  但是,Innodb的行级锁定同样也有其脆弱的一面,当我们使用不当的时候,可能会让Innodb的整体性能表现不仅不能比MYISAM高,甚至可能会更差。

2.2.4 行锁分析

通过检查 InnoDB_row_lock 状态变量来分析系统上的行锁的争夺情况 show status like'innodb_row_lock%';
对各个状态量的说明如下:
Innodb_row_lock_current_waits: 当前正在等待锁定的数量
Innodb_row_lock_time: 从系统启动到现在锁定总时间长度
Innodb_row_lock_time_avg: 每次等待所花平均时间
Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花时间
Innodb_row_lock_waits:系统启动后到现在总共等待的次数

 

对于这5个状态变量,比较重要的主要是:
Innodb_row_lock_time_avg (等待平均时长)
Innodb_row_lock_waits (等待总次数)
Innodb_row_lock_time(等待总时长)
尤其是当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手制定优化计划。

2.2.5 死锁

死锁的产生

<a> 在 session1 中开启事务A,执行:select * from account where id=1 for update;

<b> 在session2 中开启事务B,执行:select * from account where id=2 for update;

<c> 在 session1 中执行:select * from account where id=2 for update;  会阻塞住;

<d> 在 session2 中执行:select * from account where id=1 for update; 会产生死锁;

 MySql在有些情况下会自动检查死锁,若检查到死锁就会默认执行 rollback;

查看近期死锁日志信息:show engine innodb status;
大多数情况mysql可以自动检测死锁并回滚产生死锁的那个事务,但是有些情况mysql没法自动检测死锁

2.2.6 优化建议

  • 尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁;
  • 合理设计索引,尽量缩小锁的范围;
  • 尽可能减少检索条件范围,避免间隙锁;
  • 尽量控制事务大小,减少锁定资源量和时间长度,涉及事务加锁的sql;
  • 尽量放在事务最后执行;
  • 尽可能低级别事务隔离;

 

posted @ 2020-03-30 21:48  风止雨歇  阅读(950)  评论(0编辑  收藏  举报