Redis与MySQL的数据一致性解决方案

一、前言

RedisMySQL双写一致性如何保证?
这问题其实就是在问缓存和数据库在双写场景下,一致性是如何保证的?

一致性就是数据保持一致,在分布式系统中,可以理解为多个节点中数据的值是一致的。

  • 强一致性:这种一致性级别是最符合用户直觉的,它要求系统写入什么,读出来的也会是什么,用户体验好,但实现起来往往对系统的性能影响大。
  • 弱一致性:这种一致性级别约束了系统在写入成功后,不承诺立即可以读到写入的值,也不承诺多久之后数据能够达到一致,但会尽可能地保证到某个时间级别(比如秒级别)后,数据能够达到一致状态。
  • 最终一致性:最终一致性是弱一致性的一个特例,系统会保证在一定时间内,能够达到一个数据一致的状态。这里之所以将最终一致性单独提出来,是因为它是弱一致性中非常推崇的一种一致性模型,也是业界在大型分布式系统的数据一致性上比较推崇的模型。

二、缓存模式

缓存可以提升性能、缓解数据库压力,但是使用缓存也会导致数据不一致性的问题。一般我们是如何使用缓存呢?有三种经典的缓存模式:

  • 旁路缓存(Cache-Aside Pattern)
  • 读写穿透(Read/Write Through)
  • 异步缓存写入(Write Behind)

2.1 旁路缓存

旁路缓存模式(Cache-Aside Pattern)也叫边缘缓存模式,它的提出是为了尽可能地解决缓存与数据库的数据不一致问题。这是最常用的模式。具体逻辑如下:

  • 失效:应用程序先从cache取数据,没有得到,则从数据库中取数据,成功后,放到缓存中。
  • 命中:应用程序从cache中取数据,取到后返回。
  • 更新:先把数据存到数据库中,成功后,再让缓存失效。

2.1.1 旁路缓存的读流程

旁路缓存的读请求流程如下:

读的时候,先读缓存,缓存命中的话,直接返回数据;
缓存没有命中的话,就去读数据库,从数据库取出数据,放入缓存后,同时返回响应。

2.1.2 旁路缓存写流程

旁路缓存的写请求流程如下:

更新的时候,先更新数据库,然后再删除缓存。

小结:一个是查询操作,一个是更新操作的并发,首先,没有了删除cache数据的操作了,而是先更新了数据库中的数据,此时,缓存依然有效,所以,并发的查询操作拿的是没有更新的数据,但是,更新操作马上让缓存的失效了,后续的查询操作再把数据从数据库中拉出来。而不会像文章开头的那个逻辑产生的问题,后续的查询操作一直都在取老的数据。

要么通过2PC或是Paxos协议保证一致性,要么就是拼命的降低并发时脏数据的概率,而Facebook使用了这个降低概率的玩法,因为2PC太慢,而Paxos太复杂。当然,最好还是为缓存设置上过期时间。

2.2 读写穿透

在上面的旁路缓存套路中,我们的应用代码需要维护两个数据存储,一个是缓存(Cache),一个是数据库(Repository)。而读写穿透(Read/Write Through)也叫通读/通写模式套路是把更新数据库(Repository)的操作由缓存自己代理了,所以,对于应用层来说,就简单很多了。可以理解为,应用认为后端就是一个单一的存储,而存储自己维护自己的Cache

读写穿透模式中,服务端把缓存作为主要数据存储。应用程序跟数据库缓存交互,都是通过抽象缓存层完成的。

2.2.1 Read-Through读流程

Read Through套路就是在查询操作中更新缓存,也就是说,当缓存失效的时候(过期或LRU换出),Cache Aside是由调用方负责把数据加载入缓存,而Read Through则用缓存服务自己来加载,从而对应用方是透明的。 Read-Through的简要读流程如下

从缓存读取数据,读到直接返回
如果读取不到的话,从数据库加载,写入缓存后,再返回响应。

这个简要流程是不是跟旁路缓存很像呢?

其实Read-Through就是多了一层Cache-Provider,流程如下:

Read-Through的优点

Read-Through实际只是在旁路缓存之上进行了一层封装,它会让程序代码变得更简洁,同时也减少数据源上的负载。

2.2.2 Write-Through写流程

Write-Through模式下,当发生写请求时,也是由缓存抽象层完成数据源和缓存数据的更新,不过是在更新数据时发生。当有数据更新的时候,如果没有命中缓存,直接更新数据库,然后返回。如果命中了缓存,则更新缓存,然后再由Cache自己更新数据库,流程如下:

2.3 异步缓存写入

异步缓存写入(Write Behind)又叫Write BackWrite Back就是Linux文件系统的Page Cache的算法。

读写穿透有相似的地方,都是由Cache Provider来负责缓存和数据库的读写。它两又有个很大的不同:读写穿透是同步更新缓存和数据的,异步缓存写入则是只更新缓存,不直接更新数据库,通过批量异步的方式来更新数据库

这个设计的好处就是让数据的I/O操作飞快无比(因为直接操作内存嘛 ),因为异步,Write Back还可以合并对同一个数据的多次操作,所以性能的提高是相当可观的。

20210522212601631.png

这种方式下,缓存和数据库的一致性不强,可能会丢失数据,对一致性要求高的系统要谨慎使用。

适合频繁写的场景,如消息队列中消息的异步刷磁盘、MySQL的InnoDB Buffer Pool机制都用到了这种模式。

2.4 三种模式的比较

旁路缓存更新模式实现起来比较简单,但是需要维护两个数据存储:

  • 一个是缓存(Cache)
  • 一个是数据库(Repository)。

读写穿透的写模式需要维护一个数据存储(缓存),实现起来要复杂一些。

异步缓存写入的更新模式和读写穿透更新模式类似,区别是异步缓存写入更新模式的数据持久化操作是异步的,但是读写穿透更新模式的数据持久化操作是同步的异步缓存写入的优点是直接操作内存速度快,多次操作可以合并持久化到数据库。缺点是数据可能会丢失,例如系统断电等。

2.5 旁路缓存的问题

2.5.1 更新数据的时候,旁路缓存是删除缓存呢,还是应该更新缓存?

有些小伙伴可能会问,旁路缓存在写入请求的时候,为什么是删除缓存而不是更新缓存呢?

我们在操作缓存的时候,到底应该删除缓存还是更新缓存呢?我们先来看个例子:

操作的次序如下:

线程A先发起一个写操作,第一步先更新数据库
线程B再发起一个写操作,第二步更新了数据库

现在,由于网络等原因,线程B先更新了缓存,线程A更新缓存。

这时候,缓存保存的是A的数据(老数据),数据库保存的是B的数据(新数据),数据不一致了,脏数据出现啦。如果是删除缓存取代更新缓存则不会出现这个脏数据问题。

更新缓存相对于删除缓存,还有两点劣势:

  1. 如果你写入的缓存值,是经过复杂计算才得到的话。更新缓存频率高的话,就浪费性能啦。
  2. 在写多读少的情况下,数据很多时候还没被读取到,又被更新了,这也浪费了性能呢(实际上,写多的场景,用缓存也不是很划算了)

任何的措施,也不是绝对的好,只有分场景看是不是适合,更新缓存的措施,也是有用的:

在读多写少的场景,价值大。

2.5.2 双写的情况下,先操作数据库还是先操作缓存?

旁路缓存模式中,有些小伙伴还是有疑问,在写入请求的时候,为什么是先操作数据库呢?为什么不先操作缓存呢?

假设有A、B两个请求,请求A做更新操作,请求B做查询读取操作。

A、B两个请求的操作流程如下:

  1. 线程A发起一个写操作,第一步删除缓存
  2. 此时线程B发起一个读操作,缓存中未查到
  3. 线程B继续读DB,读出来一个老数据
  4. 然后线程B把老数据设置入cache
  5. 线程A写入DB最新的数据

这样就有问题啦,缓存和数据库的数据不一致了。

缓存保存的是老数据,数据库保存的是新数据。因此,旁路缓存模式,选择了先操作数据库而不是先操作缓存。

三、缓存与数据库的数据一致性

重要:缓存是通过牺牲强一致性来提高性能的

这是由CAP理论决定的。缓存系统适用的场景就是非强一致性的场景,它属于CAP中的AP

具体请参考分布式事务原理及解决方案里面的CAP相关理论

所以,如果需要数据库和缓存数据保持强一致,就不适合使用缓存。

所以使用缓存提升性能,就是会有数据更新的延迟。这需要我们在设计时结合业务仔细思考是否适合用缓存。然后缓存一定要设置过期时间,这个时间太短、或者太长都不好:

  • 太短的话请求可能会比较多的落到数据库上,这也意味着失去了缓存的优势。
  • 太长的话缓存中的脏数据会使系统长时间处于一个延迟的状态,而且系统中长时间没有人访问的数据一直存在内存中不过期,浪费内存。

但是,通过一些方案优化处理,是可以保证弱一致性,最终一致性的。

四、保证数据库与缓存的一致性

保证数据库与缓存的一致性的3种方案

  • 延时双删策略
  • 删除缓存重试机制
  • 读取binlog异步删除缓存

4.1 缓存延时双删

有些小伙伴可能会说,不一定要先操作数据库呀,采用缓存延时双删策略就好啦?什么是延时双删呢?

延时双删的步骤:

1 先删除缓存
2 再更新数据库
3 休眠一会(比如1秒),再次删除缓存。

参考代码如下:

这个休眠一会,一般多久呢?都是1秒?

这个休眠时间 = 读业务逻辑数据的耗时 + 几百毫秒。

为了确保读请求结束,写请求可以删除读请求可能带来的缓存脏数据。

4.2 删除缓存重试机制

不管是延时双删还是旁路缓存的先操作数据库再删除缓存,如果第二步的删除缓存失败呢?

删除失败会导致脏数据哦~

删除失败就多删除几次呀,保证删除缓存成功呀~所以可以引入删除缓存重试机制

删除缓存重试机制的大致步骤:

  • 写请求更新数据库
  • 缓存因为某些原因,删除失败
  • 把删除失败的key放到消息队列
  • 消费消息队列的消息,获取要删除的key
  • 重试删除缓存操作

4.3 同步binlog异步删除缓存

重试删除缓存机制还可以,就是会造成好多业务代码入侵。其实,还可以通过数据库的binlog来异步淘汰key。

mysql为例可以使用阿里的canalbinlog日志采集发送到MQ队列里面,然后编写一个简单的缓存删除消息者订阅binlog日志,根据更新log删除缓存,并且通过ACK机制确认处理这条更新log,保证数据缓存一致性。

4.3.1 如何确保消费成功

PushConsumer为了保证消息肯定消费成功,只有使用方明确表示消费成功,RocketMQ才会认为消息消费成功。中途断电,抛出异常等都不会认为成功——即都会重新投递。首先,消费的时候,我们需要注入一个消费回调,具体sample代码如下:

consumer.registerMessageListener(new MessageListenerConcurrently() {
    
    @Override
    public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
            ConsumeConcurrentlyContext context) {
        
        System.out.println(Thread.currentThread().getName() + " Receive New Messages: " + msgs);
        delcache(key);//执行真正删除
        return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;//返回消费成功
    }
});

业务实现消费回调的时候,当且仅当此回调函数返回ConsumeConcurrentlyStatus.CONSUME_SUCCESSRocketMQ才会认为这批消息(默认是1条)是消费完成的。如果这时候消息消费失败,例如数据库异常,余额不足扣款失败等一切业务认为消息需要重试的场景,只要返回ConsumeConcurrentlyStatus.RECONSUME_LATERRocketMQ就会认为这批消息消费失败了。

为了保证消息是肯定被至少消费成功一次,RocketMQ会把这批消费失败的消息重发回Broker(topic不是原topic而是这个消费租的RETRY topic),在延迟的某个时间点(默认是10秒,业务可设置)后,再次投递到这个ConsumerGroup。而如果一直这样重复消费都持续失败到一定次数(默认16次),就会投递到DLQ(死信队列)。应用可以监控死信队列来做人工干预。

4.3.2 pub/sub的订阅实现

Pub/Sub功能(means Publish,Subscribe)即发布及订阅功能。Pub/Sub是目前广泛使用的通信模型,它采用事件作为基本的通信机制,提供大规模系统所要求的松散耦合的交互模式:订阅者(如客户端)以事件订阅的方式表达出它有兴趣接收的一个事件或一类事件;发布者(如服务器)可将订阅者感兴趣的事件随时通知相关订阅者。熟悉设计模式的朋友应该了解这与23种设计模式中的观察者模式极为相似。

Redis的pub/sub订阅实现

Redis通过publishsubscribe命令实现订阅和发布的功能。订阅者可以通过subscriberedis server订阅自己感兴趣的消息类型。redis将信息类型称为通道(channel)。当发布者通过publish命令向redis server发送特定类型的信息时,订阅该消息类型的全部订阅者都会收到此消息。

4.3.3 主从数据库通过binlog异步删除

但是还有个问题,「如果是主从数据库呢」

因为主从DB同步存在延时时间。如果删除缓存之后,数据同步到备库之前已经有请求过来时,「会从备库中读到脏数据」,如何解决呢?解决方案如下流程图:

五、总结

综上所述,在分布式系统中,缓存和数据库同时存在时,如果有写操作的时候,「先操作数据库,再操作缓存」。如下:

  1. 读取缓存中是否有相关数据
  2. 如果缓存中有相关数据value,则返回
  3. 如果缓存中没有相关数据,则从数据库读取相关数据放入缓存中key -> value,再返回
  4. 如果有更新数据,则先更新数据库,再删除缓存
  5. 为了保证第四步删除缓存成功,使用binlog异步删除
  6. 如果是主从数据库,binglog取自于从库
  7. 如果是一主多从,每个从库都要采集binlog,然后消费端收到最后一台binlog数据才删除缓存,或者为了简单,收到一次更新log,删除一次缓存

参考文章

posted @ 2022-08-01 00:02  夏尔_717  阅读(810)  评论(0编辑  收藏  举报