Redis 实战(一)AOF 持久化配置和数据恢复

真枪实弹:AOF 持久化配置和数据恢复

大家好,我是悟空呀。

如果你曾经背过 RDB 和 AOF 的面试八股文,那么对 AOF 肯定不陌生,但如果只停留在应付面试阶段,对于提高自己的技术是远远不够的,今天,悟空就带大家来真枪实弹来看看 AOF 的持久化是怎么配置的,以及如何应用 AOF 文件进行数据恢复。

开启持久化配置

什么是 AOF 持久化

  • 以独立日志的方式记录每次写命令。
  • 重启时再执行 AOF 文件中的命令达到恢复数据的目的。
  • 解决什么问题:解决了数据持久化的实时性。

开启持久化配置 appendonly

AOF 持久化配置默认是关闭的,所以需要手动打开。打开后就可以写入持久化文件 appendonly.aof 中,当然这个文件名字也是可以通过配置项 appendfilename 来设置的。

按照如下配置即可打开:

appendonly yes

对于生产环境来说,推荐打开,除非系统不关心丢失数据。

AOF 持久化流程

分为四个部分:命令写入(append)、文件同步(sync)、文件重写(rewrite)、重启加载(load)

  • 命令写入:所有的写入命令会追加到 aof_buff 缓冲区中。
  • 文件同步:AOF 缓冲区会根据对应的策略向硬盘做同步操作。
  • 文件重写:当 AOF 文件越来越大时,需要定期对 AOF 文件进行重写,达到压缩的目的。
  • 重启加载:当 Redis 服务器重启时,可以加载 AOF 文件进行数据恢复。

同步写盘配置

将 aof_buf 中的数据 同步到磁盘的配置项是:appendfsync,有三种配置西昂:Always、Everysec、No。

Always,同步写回:每个写命令执行完,立马同步地将日志写回磁盘;数据基本不丢失,性能较差。

Everysec,每秒写回:每个写命令执行完,只是先把日志写到 AOF 文件的内存缓冲区,每隔一秒把缓冲区中的内容写入磁盘;宕机时丢失 1s 内的数据,性能较好。

No,操作系统控制的写回:每个写命令执行完,只是先把日志写到 AOF 文件的内存缓冲区,由操作系统决定何时将缓冲区内容写回磁盘;宕机时丢失数据较多。通常同步周期最长 30 秒。

持久化数据恢复

开启 AOF 持久化配置

先开启 AOF 持久化配置,并设置每秒同步 aof_buf 中的数据到磁盘。

appendonly yes

在我配置的环境下,这个配置文件的路径如下:

/etc/redis/6379.conf

开启同步配置

appendfsync 默认配置是 everysec

appendfsync everysec

然后重启 Redis

redis-cli shutdown
cd /etc/init.d
./redis_6379 start
ps -ef | grep redis

重启后,会自动生成 appendonly.aof 文件。

插入一些数据

redis-cli
set key10 100
set key11 110

检查 AOF 文件

进入到存放持久化文件的目录:

cd /var/redis/6379
ll
cat appendonly.aof 文件

生成了 appendonly.aof 文件。我们也可以看下这个文件里面存放了什么。

强制退出 Redis

强制退出 Redis 时,不会生成 RDB 文件,而且还没有到 RDB 的检查点,所以 RDB 快照不会重新生成。所以 key8 和 key 9 不存在 RDB 的快照 dump.rdb 文件中。

重启时,Redis 直接从 append.aof 文件中读取日志,恢复 Redis 内存数据。

强制和退出的步骤如下:

首先获取 Redis 的进程 id

ps -ef | grep redis

Redis PID=1570,然后用 kill -9 干掉 Redis 进程:

kill -9 1570

干掉 Redis 进程时,不会自动生成 dump.rdb 文件。

然后重启 Redis

cd /var/run
rm -rf redis_6379.pid
cd /etc/init.d
./redis_6379 start

检查重启后,数据是否恢复

redis-cli
get key10
get key11

key10 和 key11 都有数据,如下图如下:

检查 RDB 持久化文件

我们用 notepad++ 工具打开 dump.rdb 文件,可以看出确实没有 key10 和 key11。

AOF 文件重写

AOF 日志就一个,AOF 日志的大小会不断增加,如果不即时清理,将会达到很大,下次重启时,通过 AOF 日志恢复内存数据是很慢的ige过程。

Redis 重写策略:

auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb

流程:

(1)当 Redis 日志的大小超过 64 MB,且超过上次日志文件大小时,Redis 父进程 fork 一个子进程。这两个值都可以通过命令 info persistence 获取到。如下图所示:

mark

(2)Redis 父进程 fork 一个子进程后,父进程继续响应其他命令。修改命令还是写入到 AOF 缓冲区,并根据 appendfsync 策略同步到磁盘,保证原来的 AOF 机制正常执行。

(4)新写入的命令,会通过 AOF 重写缓冲区来记录。

(5)子进程根据内存快照,按照命令合并规则写入到新的 AOF 文件。

(6)父进程把 AOF 重写缓冲区的数据追加写入到新的 AOF 文件。

AOF 文件损坏

如果 Redis 在 append 数据到 AOF 日志文件中时,机器突然宕机了,可能导致 AOF 日志文件不完整,也就是 AOF 文件损坏。

我们可以先对错误格式的 AOF 文件,先进行备份,然后使用 redis-check-aof --fix 命令来进行修复。然后使用 diff -u 对比数据的差异,查出丢失的数据。

实验步骤:

(1)拷贝一份 AOF 日志文件,这个文件是正常的文件。

cd /var/redis/6379
cp appendonly.aof /var/local/appendonly_copy.aof

(2)然后用 redis-check-aof 工具检查拷贝的 AOF 文件是否完整

cd /usr/local/redis-3.2.8
redis-check-aof ../../apendonly_copy.aof

提示 AOF 文件是有效的,占用 176 个字节,完整的字节也是 176 个,不完整的的字节为 0 个。

AOF analyzed: size=176, ok_up_to=176, diff=0
AOF is valid

然后编辑 appendonly_copy.aof,删掉最后的两行,使日志不完整。

再次用检查工具检查,提示 AOF 无效,总字节 167 个,完整的字节是 143 个,不完整的字节是 24 个:

AOF analyzed: size=167, ok_up_to=143, diff=24
AOF is not valid

我们再用检查工具修复下:

./redis-check-aof --fix ../../appendonly_copy.aof 

提示是否修复 AOF 文件,输入 y,最后会把文件从 167 字节截取为 143 字节,因为只有 143 字节是完整的记录:

AOF analyzed: size=167, ok_up_to=143, diff=24
This will shrink the AOF from 167 bytes, with 24 bytes, to 143 bytes
Continue? [y/N]: y
Successfully truncated AOF

我们打开日志文件也会发现不完整的 key11 的操作命令被删掉了:

另外也可以通过配置 aof-load-truncated 配置来兼容这种破损情况,默认是开启的。

AOF 和 RDB 同时存在

AOF 和 RDB 是可以同时工作的,只是会有限制条件:

  • 同时生成了 RDB 和 AOF 文件,先使用 AOF 进行数据恢复。
  • 如果 RDB 正在生成快照文件,而用户又在执行 AOF 重写命令,那么需要等到 RDB 快照生成之后,才会执行 AOF 重写。
  • 如果 RDB 正在生成快照文件,那么 Redis 不会去执行 AOF 重写,相反也是。

posted on 2023-02-27 20:46  zhe2015  阅读(267)  评论(0编辑  收藏  举报

导航