Redis系列(四)--持久化

持久化就是将数据的更新异步的保存到磁盘中

持久化方式:

  1、快照:某个时间点数据的备份 MySQL dump、Redis RDB

  2、写日志:MySQL BinLog、HBASE Hlog、Redis AOF

只针对Redis两种持久化方式进行介绍,RDB和AOF可以使用一种、两种,甚至都不使用

持久化配置选项:

#RDB持久化选项
#save 900 1                                //900s有一次写入
#save 300 10                              //300s有10次写入
#save 60 10000                            //60s中有10000次写入
stop-writes-on-bgsave-error no            //创建快照失败后是否继续执行写命令
rdbcompression yes                        //知否对快照文件进行压缩
dbfilename "dump_6379.rdb"                //快照文件名

#AOF持久化选项
appendonly yes                            //是否使用AOF持久化
appendfilename "appendonly.aof"            //AOF文件名称
appendfsync everysec                      //多久将写入内容同步到硬盘
no-appendfsync-on-rewrite no              //对AOF进行重写时,是否执行同步操作
auto-aof-rewrite-percentage 100            //多久执行一次AOF压缩
auto-aof-rewrite-min-size 64mb


dir "/var/local/redis/data"                //共享选项,决定了RDB和AOF文件的保存位置

RDB

工作原理:快照snapshotting

  Redis创建RDB文件以二进制的形式保存在磁盘中,将存在于某一时刻的所有数据写入磁盘,然后就可以通过这个RDB文件恢复数据(启动载入)

在创建快照之后,用户可以对快照进行备份,复制到其他服务器从而创建具有相同数据的服务器副本。

 

创建RDB文件的方式:

1、save(同步):可能会发生阻塞,数据量很大时,如果存在老文件,会发生替换

2、bgsave(异步):通过fork()创建一个子进程去生成RDB文件,fork()执行很快的,极小的情况下才会发生阻塞

3、自动:触发某些条件,内部执行了bgsave生成RDB文件

当满足任意条件的时候就会触发BGSAVE命令

#save 900 1                                //900s有一次写入
#save 300 10                              //300s有10次写入
#save 60 10000                            //60s中有10000次写入

对默认配置进行优化修改:右边是修改后

save 900 1            #save 900 1

save 300 10            #save 300 10

save 60 10000          #save 60 10000

dbfilename dump.rdb      dbfilename dump-${port}.rdb

dir ./              dir /bigdiskpath

4、主从复制,全量复制也会产生RDB文件

5、debug reload debug级别的重启,不需要将内存清空

6、shutdown

 

缺点:

  1、耗时(将内存中数据进行dump 时间复杂度O(N))

  2、消耗内存:fork(),copy-on-write策略

  3、Disk I/O:IO性能

  4、不可控,丢失数据,T3到T4之间数据丢失了,或者使用save、bgsave的定时任务,存在同样的问题

异常场景:

  T1 执行多个写命令

  T2 满足RDB自动创建的条件

  T3 再次执行多个写命令

  T4 宕机

这时候就会丢失T2到T4之间的数据,所以,RBD方式只适用于哪些即使丢失一部分数据也不会造成问题的应用程序

AOF

  AOF持久化就是将被执行的写命令写到AOF文件的末尾,一次来记录数据发生的变化。

策略:

1、always:

2、everysec:一般使用这个

3、no:OS控制

  我们使用everysec的策略,使我们丢失数据的时间窗口降低至1s(甚至不丢失数据),但是随着Redi不断运行,aof文件的体积会变得很大,甚

至会用完磁盘空间,而且文件体积过大,在进行还原操作的时间会很长。

  为了解决AOF文件体积增大的问题,出现了AOF重写

AOF重写:

  为了减少磁盘占用量、加速恢复速度

原生AOF            AOF重写

set hello world        set hello hehe
set hello java         set counter 2
set hello hehe        rpush mylist a b c
incr counter
incr counter
rpush mylist a
rpush mylist b
rpush mylist c

删除过期数据


AOF重写实现方式:

  1、bgrewriteaof命令:fork()出一个子进程,然后通过内存进行AOF重写出一个AOF文件,而不是通过原来的AOF文件去重写

  2、AOF重写配置

auto-aof-rewrite-percentage 100

auto-aof-rewrite-min-size 64mb

通过上面两个参数,能够自动执行BGREWRITEAOF。

上面100和64mb代表着,当AOF文件体积大于64MB,并且AOF文件的体积比上次重写之后的体积打了至少100%的时候,将执行BGREWRITEAOF命令

持久化方式的选择:
命令 RDB  AOF
启动优先级
体积
恢复速度
数据安全性 丢数据 根据策略决定
轻重

 

RDB最佳策略:

  1、最好选择把RDB"关闭",主从复制的时候需要主节点的RDB文件传给子节点

  2、集中管理:按天、星期等备份是个不错的选择,文件比较小

  3、主从,从开

  4、注意save发生的频率不要很频繁

 

AOF最佳策略:

  1、"开":缓存和存储,只是进行缓存的场景是可以关闭的

  2、AOF重写集中管理:单机多部署的时候,针对集中发生fork,所以一个机器70%的内存分配给Redis

  3、同步频率为everysec

 

最佳策略:

  1、小分片:通过maxmemory进行设置,例如最大内存设置4G

  2、缓存或存储

  3、监控(硬盘、内存、负载、网络)

  4、足够内存

 

fork操作:

  1、是同步操作,会阻塞Redis

  2、和内存量相关:内存越大,耗时越大(物理机和虚拟机也有差别,物理机性能更好)

  3、info:latest_fork_usec 查看fork执行时间

 

改善fork操作:

  1、优先使用物理机或支持高效fork操作的虚拟技术

  2、设置Redis的最大使用内存:maxmemory

  3、合理配置Linux内存分配策略:vm.overcommit_memory=1 默认0

  4、降低fork频率:放宽AOF重写的触发规则,减少不必要的全量复制

 

fork产生的子进程开销和优化:

1、CPU:

  开销:RDB和AOF文件产生,属于CPU密集型操作

  优化:不做CPU绑定,不和CPU密集型部署

2、内存

  开销:fork产生子进程内存开销,copy-on-write(当父进程有写操作时,会产生一个副本,这时候才会消耗较多内存)

3、硬盘

  开销:AOF和RDB文件的写入,可以结合iostat,iotop分析

优化:

  1).不要和存储服务、消息队列这种高负载服务部署在一起

  2).no-appendfsync-on-rewrite = yes

  3).根据写入量决定磁盘类型:例如使用机械硬盘

  4).单机多部署的时候持久化文件目录可以分盘

 

 

posted @ 2019-05-20 16:06  Diamond-Shine  阅读(339)  评论(0编辑  收藏  举报