高性能MySQL笔记之基础架构

一、背景

当你手中抓住一件东西不放时,你只能拥有一件东西,如果你肯放手,你就有机会选择更多。与其在别人的生活里跑龙套,不如精彩做自己。人无所舍,必无所成。跌倒了,失去了,不要紧,爬起来继续风雨兼程,且歌且行。

为什么我们需要先学习MYSQL的基础架构先呢?

原因很简单,当我们需要了解一件事物的时候,我们只有站在宏观的层面,才能层层剥丝抽茧的去理解问题。举个例子,我们要看一个框架的源码,一开始就想进去研究,却发现找不着北,原因很简单,因为我们没有鸟瞰全貌,我们根本不知道入口在哪里。因此我们学习MYSQL的时候也是这样。先从高纬度理解问题,最后看到里面有哪些组件,一层层的拆解,这样让我们对mysql有更深入的理解。废话不多说,我们先看总体的逻辑架构图,如下所示。

二、Mysql总体逻辑架构

从图中不难看出,不同的存储引擎共用一个Server层,也就是从连接器到执行器的部分。可以看到Server层包括连接器、查询缓存、分析器、优化器、执行器等,涵盖MySQL的大多数核心服务功能,以及所有的内置函数(如日期、时间、数学和加密函数等),所有跨存储引擎的功能都在这一层实现,比如触发器、视图等。

需要主意的是存储引擎层负责数据的存储和提取。其架构模式是插件式的,支持InnoDB、MyISAM、Memory等多个存储引擎。现在最常用的存储引擎是InnoDB,它从MySQL 5.5.5版本开始成为了默认存储引擎。这也说明了你create table建表的时候,如果不指定引擎类型,默认使用的就是InnoDB。当然你也可以指定存储引擎,例如create table语句中使用engine=memory, 来指定使用内存引擎创建表。接下来我们一个一个看各个组件的各自作用以及一条sql在整个架构的执行流程。

二、连接器

当我们要 执行 select * from T where ID=1;这条语句的时候,首先当然是连接器帮我们负责跟客户端建立连接,获取权限、位置和管理连接。连接命令如下:

mysql -h$ip -P$port -u$user -p

输完命令之后,接下来就是经典的TCP握手了,连接器就要开始认证你的身份,这个时候用的就是你输入的用户名和密码。虽然密码也可以直接跟在-p后面写在命令行中,但这样可能会导致你的密码泄露。如果你连的是生产服务器,前往不要这么做,这是生产上的禁忌。如果用户名密码认证通过,连接器会到权限表里面查出你拥有的权限。之后,这个连接里面的权限判断逻辑,都将依赖于此时读到的权限。这就意味着,一个用户成功建立连接后,即使你用管理员账号对这个用户的权限做了修改,也不会影响已经存在连接的权限。修改完成后,只有再新建的连接才会使用新的权限设置。

如果你连接完成后,未来的一段时间里,你没做任何操作,这个连接就处于空闲的状态,你可以通过show processlist命令中看到它,如下所示:

客户端如果太长时间没动静,连接器就会自动将它断开。这个时间是由参数wait_timeout控制的,默认值是8小时。

 

如果在连接被断开之后,客户端再次发送请求的话,就会收到一个错误提醒: Lost connection to MySQL server during query。这时候如果你要继续,就需要重连,然后再执行请求了。 

数据库建立连接的过程通常是比较复杂的,使用中尽量减少连接的动作,也就是尽量使用长连接。因为长连接是指连接成功后,如果客户端持续有请求,则一直使用同一个连接。短连接则是指每次执行完很少的几次查询就断开连接,下次查询再重新建立一个,这样造成开销很大。

但是你会发现全部使用长连接后,有些时候MySql占用的内存会飙涨的很快。这是由于MySql在执行的过程中临时使用的内存是管理在连接对象里面的。这些资源会在连接断开的时候才释放。所以如果长连接累积下来,可能导致内存占用太大,被系统强行杀掉(OOM),从现象看就是MySql异常重启了。

那么如何解决这种现象呢?主要有两种方案

    1.定期断开长连接。使用一段时间,或者程序里面判断执行过一个占用内存的大查询后,断开连接,之后要查询再重连。

    2.如果你使用的版本是mysql 5.7以后的版本,可以在执行一个较大的操作后,通过执行mysql_reset_connection来重新初始化连接资源。这个过程不需要重连和重新做权限验证,但是会将连接恢复到刚刚创建完时的状态。

 

三.查询缓存

  连接建立完成后,就可以执行select语句去查询了,这时候执行逻辑就走到第二步:查询缓存。MYSQL拿到一个请求的时候,会先去缓存看有没有这个这条语句的执行结果,之前执行过的语句以及结果会以key-value 的形式缓存在内存中,当然,key就是sql语句了,value 就是之前的执行结果。如果语句不在查询缓存中,就会继续后面的执行阶段。执行完成后,执行结果会被存入查询缓存中。你可以看到,如果查询命中缓存,MySQL不需要执行后面的复杂操作,就可以直接返回结果,这个效率会很高。

但是大多数情况下,强烈不建议你去使用查询缓存,这时候你们肯定会想,为什么不用呀,这不是挺好的呀?

原因一: cache 的访问由一个单一的全局锁来控制,这时候大量的查询将被阻塞,直至锁释放。所以不要简单认为设置 cache 必定会带来性能提升。

原因二:这是因为只要有对一个表的更新,这个表上所有的查询缓存都会被清空。这时候就会造成查询缓存的失效非常频繁,你费了很大劲地把结果存起来,还没使用呢,就被一个更新全清空了。对于更新压力大的数据库来说,查询缓存的命中率会非常低。除非你的业务就是有一张静态表,很长时间才会更新一次。比如,一个系统配置表,那这张表上的查询才适合使用查询缓存。

mysql还是很人性化的,你以根据你的要去使用查询缓存,你可以将参数query_cache_type设置成DEMAND,这样对于默认的SQL语句都不使用查询缓存。而对于你确定要使用查询缓存的语句,可以用SQL_CACHE显式指定,sql例子如下所示:

mysql> select SQL_CACHE * from T where ID=10

最近我去官网看了mysql 8.0的改变,这个查询功能整块被删掉了,也就是8.0以后的版本都没有这个功能了。

 

四.分析器

如果没有命中查询缓存,就要开始真正执行语句了。首先,MySQL需要对SQL语句做解析,分析器先会 词法分析 ,mysql需要识别出你这条sql语句字符串里面的字符串分别是什么,代表什么意思。

比如,mysql会根据你输入的select这个关键字识别出来,这是一个查询语句,把“T”识别成表明T,把ID识别成 列ID。接着就是进行语法分析了,根据词法分析的结果,语法分析器会根据语法规则,判断你输入的这个SQL语句是否满足MySQL语法。如果你的语法错误,就会报出如下错误:

ERROR 1064 (42000): You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'elect * from t where ID=1' at line 1

一般语法错误会提示第一个出现错误的位置,所以关注的是紧接“use near”的内容。 

五.优化器

经过了分析器后,在执行之前,还需要经过优化器的处理,为什么还需优化器呢?因为优化器是在表里面有多个索引的时候,决定使用哪个索引;或者在一个语句有多表关联(join)的时候,决定各个表的连接顺序。比如你执行下面这样的语句,这个语句是执行两个表的join:

mysql> select * from T1 join T2 using(ID)  where T1.A=1 and T2.B=2;

这条语句既可以先从表T1里面取出A=1的记录的ID值,再根据ID值关联到表T2,再判断T2里面d的值是否等于2。也可以先从表T2里面取出B=2的记录的ID值,再根据ID值关联到T1,再判断T1里面A的值是否等于1。虽然最终执行的结果是一样的,但是执行效率却有很大的不同。再比如优化器是怎么选择索引的,例子如下:

SELECT C FROM T WHERE  A= 'value1' AND B = 'value2';

假设 A上的扫描了 100 个数据行,B 上扫描 50个数据行,而同时进行的测试只得到了 50个数据行。

先根据A会有100个数据行,接着进行匹配找到其中的 30 个与 B 中的值匹配记录,其中就有 70 次是失败了。

先根据 B会有 50 个数据行,接着进行匹配找到其中的 30 个与 A中的值匹配的记录,只有 20次是失败的,很显然需要的计算和磁盘 I/O 更少。

其结果是,优化器会先选择B索引,因为这样做开销更小。而优化器的作用就是决定选择使用哪一个方案。

 

因此MySQL 的优化器主要干如下几个重要的事情:

1、选择最合适的索引;
2、选择表扫还是走索引;
3、选择表关联顺序;
4、优化 where 子句;
5、排除管理中无用表;
6、决定 order by 和 group by 是否走索引;
7、尝试使用 inner join 替换 outer join;
8、简化子查询,决定结果缓存;
9、合并试图;

六.执行器

经过优化器知道了该怎么做,于是就进入了执行器阶段,开始执行语句。开始执行的时候,要先判断一下你对这个表T有没有执行查询的权限,如果没有,就会返回没有权限的错误,如下所示。

select * from T where ID=1;

ERROR 1142 (42000): SELECT command denied to user 'b'@'localhost' for table 'T'

如果有权限,就继续往下执行,这时候执行器就会根据表的引擎定义,去使用这个引擎提供的接口。

这条语句在执行器的执行流程如下:

  1. 调用InnoDB引擎接口取这个表的第一行,判断ID值是不是1,如果不是则跳过,如果是则将这行存在结果集中;

  2. 调用引擎接口取“下一行”,重复相同的判断逻辑,直到取到这个表的最后一行。

  3. 执行器将上述遍历过程中所有满足条件的行组成的记录集作为结果集返回给客户端。

至此,这个语句就执行完成了。对于有索引的表,执行的逻辑也差不多。第一次调用的是“取满足条件的第一行”这个接口,之后循环取“满足条件的下一行”这个接口,这些接口都是引擎中已经定义好的。你会在数据库的慢查询日志中看到一个rows_examined的字段,表示这个语句执行过程中扫描了多少行。这个值就是在执行器每次调用引擎获取数据行的时候累加的。

在有些场景下,执行器调用一次,在引擎内部则扫描了多行,因此引擎扫描行数跟rows_examined并不是完全相同的。我们后面会专门有一篇文章来讲存储引擎的内部机制,里面会有详细的说明。

 

七.日志模块 

到了架构图最后一部分了日志模块了,这里与上面的查询流程中不一样的是,如果涉及更新流程还要涉及两个重要的日志模块,分别是重做日志(redo log)、归档日志(binlog)。

我们首先来看redo log,redo log就像古代酒店里面的一块粉板,用来记录客人的赊账记录,如果赊账的人不多,那么他可以把顾客名和账目写在板上。但如果赊账的人多了,粉板总会有记不下的时候,这个时候掌柜一定还有一个专门记录赊账的账本。这个账本相当于我们的磁盘,如果生意很火爆的时候,如果我们通过账本来操作赊账和还账的话,肯定需要通过密密麻麻的几十页来找到那个名字,再慢慢计算,写入账本。这明显是不高效率的,特别是生意火爆的时候,效率特别慢。所以如果我们现在粉板上先记录一下,等粉板写满了,或者打烊的时候再进行账本数据与粉板的数据进行校对,这样明显更加能提升效率。

同样,在MySQL里也有这个问题,如果每一次的更新操作都需要写进磁盘,然后磁盘也要找到对应的那条记录,然后再更新,整个过程IO成本、查找成本都很高。为了解决这个问题,MySQL的设计者就用了类似酒店掌柜粉板的思路来提升更新效率。而粉板和账本配合的整个过程,其实就是MySQL里经常说到的WAL技术,WAL的全称是Write-Ahead Logging,它的关键点就是先写日志,再写磁盘,也就是先写粉板,等不忙的时候再写账本。

因此,当有一条记录需要更新的时候,InnoDB引擎就会先把记录写到redo log(粉板)里面,并更新内存,这个时候更新就算完成了。同时,InnoDB引擎会在适当的时候,将这个操作记录更新到磁盘里面,而这个更新往往是在系统比较空闲的时候做,这就像打烊以后掌柜做的事。如果今天赊账的不多,掌柜可以等打烊后再整理。但如果某天赊账的特别多,粉板写满了,又怎么办呢?这个时候掌柜只好放下手中的活儿,把粉板中的一部分赊账记录更新到账本中,然后把这些记录从粉板上擦掉,为记新账腾出空间。

InnoDB的redo log是固定大小的,比如可以配置为一组4个文件,每个文件的大小是1GB,那么这块“粉板”总共就可以记录4GB的操作。从头开始写,写到末尾就又回到开头循环写,如下面这个图所示。

write pos是当前记录的指针,一边写一边后移,写到第3号文件末尾后就回到0号文件开头。checkpoint是当前要擦除的位置,也是往后推移并且循环的,擦除记录前要把记录更新到数据文件。

write pos和checkpoint之间是用来记录新的操作,即“粉板”上还空着的部分。如果write pos追上checkpoint,表示“粉板”满了,这时候不能再执行新的更新,得停下来先擦掉一些记录,把checkpoint推进一下。有了redo log,InnoDB就可以保证即使数据库发生异常重启,之前提交的记录都不会丢失,这个能力称为crash-safe。要理解crash-safe这个概念,可以想想我们前面赊账记录的例子。只要赊账记录记在了粉板上或写在了账本上,之后即使掌柜忘记了,比如突然停业几天,恢复生意后依然可以通过账本和粉板上的数据明确赊账账目。

 

接下来讲解binlog,我们可以从前面的架构图看到MySql整体分为两块,一块是Server层,它主要做的是MySQL功能层面的事情;还有一块是引擎层,负责存储相关的具体事宜。上面我们聊到的粉板redo log是InnoDB引擎特有的日志,而Server层也有自己的日志,称为binlog(归档日志)。这时候我们是不是又一个疑问,为什么还需要binlong 这个日志呢?

这是因为最开始MySQL里并没有InnoDB引擎。MySQL自带的引擎是MyISAM,但是MyISAM没有crash-safe的能力,binlog日志只能用于归档。而InnoDB是另一个公司以插件形式引入MySQL的,既然只依靠binlog是没有crash-safe能力的,所以InnoDB使用另外一套日志系统——也就是redo log来实现crash-safe能力。

这两种日志有以下三点不同。

  1. redo log存在于InnoDB;binlog是由Server层实现的,因此所有引擎都可以使用。

  2. redo log是物理日志,记录的是“在某个数据页上做了什么修改”;binlog是逻辑日志,记录的是这个语句的原始逻辑,比如“给ID=2这一行的c字段加1 ”。

  3. redo log是循环写的,空间固定会用完;binlog是可以追加写入的。“追加写”是指binlog文件写到一定大小后会切换到下一个,并不会覆盖以前的日志。

 接下来,通过一条更新语句来讲解InnoDB引擎和执行器内部执行更新的流程。例子如下:

update T set A=A+1 where ID=1;

流程图如下所示:

可以看到执行器和InnoDB引擎在执行这个简单的update语句时的内部流程,步骤如下

  1. 执行器先找引擎取ID=1这一行。ID是主键,引擎直接用树搜索找到这一行。如果ID=1这一行所在的数据页本来就在内存中,就直接返回给执行器;否则,需要先从磁盘读入内存,然后再返回。

  2. 执行器拿到引擎给的行数据,把这个值加上1,比如原来是N,现在就是N+1,得到新的一行数据,再调用引擎接口写入这行新数据。

  3. 引擎将这行新数据更新到内存中,同时将这个更新操作记录到redo log里面,此时redo log处于prepare状态。然后告知执行器执行完成了,随时可以提交事务。

  4. 执行器生成这个操作的binlog,并把binlog写入磁盘。

  5. 执行器调用引擎的提交事务接口,引擎把刚刚写入的redo log改成提交(commit)状态,更新完成。

 

接下来就是进行两阶段提交了,为什么为什么必须有“两阶段提交”呢?

这是为了让两份日志之间的逻辑一致。要说明这个问题,这个问题说起:怎样让数据库恢复到半个月内任意一秒的状态?

前面我们说过了,binlog会记录所有的逻辑操作,并且是采用“追加写”的形式。如果你的DBA承诺说半个月内可以恢复,那么备份系统中一定会保存最近半个月的所有binlog,同时系统会定期做整库备份。这里的“定期”取决于系统的重要性,可以是一天一备,也可以是一周一备。

当需要恢复到指定的某一秒时,比如某天下午两点发现中午十二点有一次误删表,需要找回数据,那你可以这么做:

  • 首先,找到最近的一次全量备份,如果你运气好,可能就是昨天晚上的一个备份,从这个备份恢复到临时库;
  • 然后,从备份的时间点开始,将备份的binlog依次取出来,重放到中午误删表之前的那个时刻。

这样你的临时库就跟误删之前的线上库一样了,然后你可以把表数据从临时库取出来,按需要恢复到线上库去。

好了,说完了数据恢复过程,我们回来说说,为什么日志需要“两阶段提交”。这里不妨用反证法来进行解释。

由于redo log和binlog是两个独立的逻辑,如果不用两阶段提交,要么就是先写完redo log再写binlog,或者采用反过来的顺序。我们看看这两种方式会有什么问题。

仍然用前面的update语句来做例子。假设当前ID=A的行,字段A的值是0,再假设执行update语句过程中在写完第一个日志后,第二个日志还没有写完期间发生了crash,会出现什么情况呢?

  1. 先写redo log后写binlog。假设在redo log写完,binlog还没有写完的时候,MySQL进程异常重启。由于我们前面说过的,redo log写完之后,系统即使崩溃,仍然能够把数据恢复回来,所以恢复后这一行A的值是1。
    但是由于binlog没写完就crash了,这时候binlog里面就没有记录这个语句。因此,之后备份日志的时候,存起来的binlog里面就没有这条语句。
    然后你会发现,如果需要用这个binlog来恢复临时库的话,由于这个语句的binlog丢失,这个临时库就会少了这一次更新,恢复出来的这一行A的值就是0,与原库的值不同。

  2. 先写binlog后写redo log。如果在binlog写完之后crash,由于redo log还没写,崩溃恢复以后这个事务无效,所以这一行A的值是0。但是binlog里面已经记录了“把A从0改成1”这个日志。所以,在之后用binlog来恢复的时候就多了一个事务出来,恢复出来的这一行A的值就是1,与原库的值不同。

可以看到,如果不使用“两阶段提交”,那么数据库的状态就有可能和用它的日志恢复出来的库的状态不一致。

你可能会说,这个概率是不是很低,平时也没有什么动不动就需要恢复临时库的场景呀?

其实不是的,不只是误操作后需要用这个过程来恢复数据。当你需要扩容的时候,也就是需要再多搭建一些备库来增加系统的读能力的时候,现在常见的做法也是用全量备份加上应用binlog来实现的,这个“不一致”就会导致你的线上出现主从数据库不一致的情况。

简单说,redo log和binlog都可以用于表示事务的提交状态,而两阶段提交就是让这两个状态保持逻辑上的一致。

 

总的来说redo log用于保证crash-safe能力。innodb_flush_log_at_trx_commit这个参数设置成1的时候,表示每次事务的redo log都直接持久化到磁盘。这个参数我建议你设置成1,这样可以保证MySQL异常重启之后数据不丢失。

sync_binlog这个参数设置成1的时候,表示每次事务的binlog都持久化到磁盘。这个参数我也建议你设置成1,这样可以保证MySQL异常重启之后binlog不丢失。两阶段提交是跨系统维持数据逻辑一致性时常用的一个方案。

三. 实战巩固

1.执行了这个语句 select * from T where k=1, 必然会报“不存在这个列”的错误: “Unknown column ‘k’ in ‘where clause’”。让我闷想一下这是上面哪个阶段报出来的呢?

答案:很明显是分析器阶段,因为词法分析的时候会解析出查询的表,列等等,所以此时就应该能知道表列的存在性。而且从我个人的拙见来看,如果先一步判断出这种无法查询的错误,避免后续执行,则可以避免无谓的性能开销。而表列的数据较少,完全可以这里判断。

 

2.我们知道定期全量备份的周期“取决于系统重要性,有的是一天一备,有的是一周一备”。那么在什么场景下,一天一备会比一周一备更有优势呢?或者说,它影响了这个数据库系统的哪个指标?

在一天一备的模式里,最坏情况下需要应用一天的binlog,好处是“最长恢复时间”更短。比如,你每天0点做一次全量备份,而要恢复出一个到昨天晚上23点的备份。

一周一备最坏情况就要应用一周的binlog了。系统的对应指标就是恢复目标时间(RTO)。当然这个是有成本的,因为更频繁全量备份需要消耗更多存储空间,所以这个RTO是成本换来的,就需要你根据业务重要性来评估了。

posted @ 2019-08-08 23:37  国见比吕  阅读(2874)  评论(1编辑  收藏  举报