Redis主从同步异常问题记录
一、背景
2015.7.31 10.36.14.*网段的TOR故障一小时,网络故障恢复后,redis nj多个从主从同步异常:
除slave0外,其他slave的offset均比master大。注:redis的主从之间通过offset进行增量同步,即从向主发送它当前存储数据的offset,主将这个offset之后的增量数据同步给从,以保证主从数据一致。然而线上出现从的offset比主大,说明主从同步的逻辑存在问题。
二、问题影响
Redis主从同步分三种:
1.全量同步(主从首次连接或者增量同步失败)
——redis主dump出所有的数据发给从;
2.增量同步(主从连接瞬断)
——redis主将slave发送的offset之后的数据发给从;
3.长连接同步(正常情况)
——redis主从维护一个长连接,redis主将所有写请求发给从;
该问题只会影响redis主和从的增量同步即网络瞬断时会影响同步,影响分为两种:
1.发生问题后,进行增量同步时从的offset比主大:增量同步失败,进行全量同步,对redis从中的数据不影响;
2.发生问题后,进行增量同步时从的offset比主小(出现问题时从的offset比主大,但是随着主写入数据,offset可能会超过从):主从增量同步异常,从中的数据比主少。
三、Bug定位
异常原因
由问题背景可看出bug由从的replica_offset引起,分析代码中会修改从的offset的逻辑:
初始化:从的offset是在向主请求增量同步失败后由主返回:
从接受到”+FULLRESYNC”响应后,更新offset:
Offset更新:全量同步完成后,主从长连接正常同步时,每次请求offset均自增:
结合offset初始化和更新的代码逻辑,可以推断offset异常由主从全量同步引起,原因如下:
- 如背景所述,发生问题时主从连接断开,无法进行正常同步,因此不存在正常同步导致offset异常;
- 正常同步中offset只会比主少,不会比主多。
源码分析
分析redis主处理增量同步的代码逻辑,画出简化的流程图如下:
抽出master返回offset逻辑如下:
Master会先设置psync_offset(要发给从的offset)为master当前的offset,然后判断是否有在做bgsave操作,如果已经有从在做bgsave,则复制已经在做bgsave的从的output buffer(这个buffer会作为dump同步完后的新增数据发送给从)——至此,问题已出现:
当第一个从进行全量同步时,主将它当前的offset o1返回给从,并且开始做bgsave同时将新增的写请求数据写入第一个从的repl_buffer中,同步完dump数据后,从repl_buffer中发送增量数据,此时o1+增量数据刚好等于master的offset;
而在第一个从的bgsave未完成时,若第一个从申请全量同步,则主返回它当前的offset o2(必然比o1大),判断到slave1已在做bgsave,此时不再做bgsave,直接复制s1的repl_buffer到s2的repl_buffer中,并且master新增的数据也开始写到s2的repl_buffer中,同步完dump数据后,从repl_buffer发送增量数据并同步offset.
注意:
- 此时s1和s2的增量数据完全相同;
- o2 > o1
- o1 + 增量数据 = master的offset
因此从2的offset比主大。
四、问题修复
确定问题后,RD对代码进行了修复:需要做全量同步时,master不再返回当前的offset,而是返回首次做bgsave时保存的offset:
缓存server.fullsync_repl_offset,每次全量同步时返回同样的offset。
五、测试
问题已修复,需要回归测试,测试做CR时仔细核对主从同步过程,发现有如下逻辑:
若第一个从申请全量同步时,主已经在做bgsave(请注意,这里的bgsave是主自动触发的),这时会将从的offset标记为主当前的,并且标记从为WAIT_BGSAVE_START,等待bgsave结束后再次开启bgsave,而这时从的offset比主小。
六、新的问题
这种情况下,若主已在做bgsave:
- 从请求做全量同步,则主会返回从一个offset o1,并且标记从为WAIT_BGSAVE_START;
- 等bgsave结束后再次开启bgsave,记此时主的offset为o2,并将主的增量数据写到从的buffer中;
- 同步完dump的数据后同步增量数据,此时主的offset为o2+增量数据,而从的offset为o1+增量数据;
- 显然,o1<o2,这就造成同样的数据,从的offset比主小。
影响
事实上,这个问题若出现,将比上一个问题影响更大:
从的offset比主小,只要网络瞬断,则从的数据必然异常,并且会重复写一部分数据(o2-o1对应的数据段),造成线上主从数据不一致。
七、修复方案
可幸的是,在我们发现第二个问题后,redis官方给出了这一系列问题的解决方法:https://github.com/antirez/redis/commit/bea1259190a9f3c3850b074ef7d0af0bc3ea36a7
官方的解决方法为:
从申请做全量同步时,不再立即返回主的offset,而是放在buffer中作为增量数据发送。
八、总结
这个bug算是隐藏很深的一个超大bug了,在作者修复前,开源社区使用redis的公司应该都或多或少的受到了这个问题的影响。
目前来看,底层服务的这种bug很难发现:
- 功能测试实在无法覆盖层出不穷的异常场景,redis开源社区已有的自动化case数已达200多项,然而这个bug还是隐藏了很久;
- QA和RD没有足够的精力去CR整个服务的代码。
- 测试应加大CR力度,对代码足够了解才能写出足够完善的case;
- CR时应尽可能分析代码的所有逻辑,避免出现特殊情况;
- 问题定位:
测试中应注意的问题
CR建议
1.问题定位:
a) 分析bug产生的原因,尽可能详细到变量或者函数;
b) 阅读代码逻辑,查看变量/函数的初始化位置/调用位置或改变位置;
c) 分析变量/函数出错可能的原因,检查对应的代码逻辑;
2.测试:
对QA来说,CR不只是阅读代码逻辑,也要检查代码逻辑的问题——CR代码时尽量画出一个流程图(至少大脑里要有一个),之后分析代码逻辑:
a) 检查各个变量的初始化及调用位置,判断是否会有脏值;
b) 检查动态内存的申请和释放位置,判断是否会内存泄漏或者使用野指针;
c) 检查代码分支,不同的分支是否能做正确的响应;
百度MTC是业界领先的移动应用测试服务平台,为广大开发者在移动应用测试中面临的成本、技术和效率问题提供解决方案。同时分享行业领先的百度技术,作者来自百度员工和业界领袖等。
更多干货分享请关注”百度MTC学院“>>http://mtc.baidu.com/academy/article