Redis学习(详细版)
Redis学习(详细版)
本博客根据黑马Redis教程学习而做的笔记
Redis(REmote DIctionary Server) 是C语言开发的高性能键值对数据库
redis所有的操作都是原子性的,采用单线程处理所有业务,命令是一个一个执行的,因此无需考虑并发带来的数据影响。
一、Redis常用指令
//启动容器
docker run -d -p 6379:6379 -it --name="myredis" redis
输入密码:
auth 密码
//进入redis容器
docker exec -it myredis redis-cli
//退出
quit
exit
//清屏
clear
//获取帮助, 可以使用Tab键来切换
help 命令名称
help @组名
二、数据类型
所有的key都为String类型,讨论数据类型是说的value的类型
1、String
以读为主,如果修改比较多,建议用hash
数据最大存储量512MB
基本操作
//设置String,如果存在就覆盖
set key value
mset key1 value1 key2 value2...
//一次操作的耗时包括 发送指令,执行指令,返回结果,所以多指令时用mset效率较高。
//但是,如果 RTT(round-trip time)时间过长,则需要对指令进行切割到合适大小,避免一次操作失败,整个数据都存入失败
//设置生命周期
setex key seconds value
//得到String
get key
mget key1 key2...
//删除String
del key
//向字符串的后面追加字符,相当于字符串拼接,如果有就补在后面,如果没有就新建
append key value
string 类型数据的扩展操作
String作为数值的操作
//增加指令,只有当value为数字时才能增长
incr key //+1
incrby key increment //+increment
incrbyfloat key increment //+小数
//减少指令,有当value为数字时才能减少
decr key //-1
decrby key increment //-increment
//没有decrbyfloat指令,要想减,可以用incrbyfloat key 负数代替
- string在redis内部存储默认就是一个字符串,当遇到增减类操作incr,decr时会转成数值型进行计算。
- redis所有的操作都是原子性的,采用单线程处理所有业务,命令是一个一个执行的,因此无需考虑并发带来的数据影响。
- 注意:按数值进行操作的数据,如果原始数据不能转成数值,或超越了redis 数值上限范围,将报错。
- 上限范围: 2^63 -1= 9,223,372,036,854,775,807(java中long型数据最大值,Long.MAX_VALUE)
tips:
- redis用于控制数据库表主键id,为数据库表主键提供生成策略,保障数据库表的主键唯一性
- 此方案适用于所有数据库,且支持数据库集群
指定生命周期
//设置数据的生命周期,单位 秒
setex key seconds value
//设置数据的生命周期,单位 毫秒
psetex key milliseconds value
//可以被正常指令覆盖时效 set key value,如果覆盖了,则设置的时效就会失效
//使用场景:投票系统,每隔多少小时才可以投票
tips
- redis 控制数据的生命周期,通过数据是否失效控制业务行为,适用于所有具有时效性限定控制的操作
命名规范
- mysql用下划线
_
- redis用
:
- 例如:
set user:id:00789:fans 500000
set user:id:00789 {fans:500000,blogs:6134,focus:11154}
一般value写成json格式方便使用
- 例如:
2、Hash
基本操作
//插入(如果已存在同名的field,会被覆盖)
hset key field value
hmset key field1 value1 field2 value2...
//插入(如果已存在同名的field,不会被覆盖)
hsetnx key field value //nx,not exists
//取出字段
hget key field
hmget key field1 value1 field2 value2...
//取出key-对象,会展示该对象的所有字段
hgetall key
//获取哈希表中所有的字段名或字段值,是key对应的对象中的key-value
hkeys key
hvals key
//删除字段
hdel key field1 field2...
//获取field数量
hlen key
//查看是否存在
hexists key field
//设置指定字段的数值数据增加指定范围的值
hincrby key field increment //+increment ,想要减就用负值
hash 类型数据操作的注意事项
- hash类型下的value只能存储字符串,不允许存储其他数据类型,不存在嵌套现象。如果数据未获取到, 对应的值为(nil)
- 每个 hash 可以存储 2^32 - 1 个键值
- hash类型十分贴近对象的数据存储形式,并且可以灵活添加删除对象属性。但hash设计初衷不是为了存储大量对象而设计的,切记不可滥用,更不可以将hash作为对象列表使用
- hgetall 操作可以获取全部属性,如果内部field过多,遍历整体数据效率就很会低,有可能成为数据访问瓶颈
3、List
- 数据存储需求:存储多个数据,并对数据进入存储空间的顺序进行区分
- 需要的存储结构:一个存储空间保存多个数据,且通过数据可以体现进入顺序
- list类型:保存多个数据,底层使用双向链表存储结构实现
- 元素有序,且可重
基本操作
//添加修改数据,lpush为从左边添加,rpush为从右边添加
lpush key value1 value2 value3... //value3 value2 value1
rpush key value1 value2 value3... //value1 value2 value3
//查看数据, 从左边开始向右查看. 如果不知道list有多少个元素,end的值可以为-1,代表倒数第一个元素,依次类推-2为倒数第二个
//lpush先进的元素放在最后,rpush先进的元素放在最前面
lrange key start end
//得到长度
llen key
//取出对应索引的元素
lindex key index
//获取并 移除 元素(从list左边或者右边移除) 出栈
lpop key
rpop key
拓展操作
//规定时间内获取并移除数据,b=block 阻塞,给定一个时间,如果在指定时间内放入了元素,就移除,在限时内可以等着这个元素进来再移除
//这个主要是用于两个客户端,一个放,一个取,任务队列实现的一个基础
blpop key1 key2... timeout
brpop key1 key2... timeout
//移除指定元素 count:移除的个数 value:移除的值。 移除多个相同元素时,从左边开始移除,没有rrem指令
lrem key count value
注意事项
- list中保存的数据都是string类型的,数据总容量是有限的,最多2^32 - 1 个元素 (4,294,967,295)。
- list具有索引的概念,但是操作数据时通常以队列的形式进行入队出队(rpush, rpop)操作,或以栈的形式进行入栈出栈(lpush, lpop)操作
- 获取全部数据操作结束索引设置为-1 (倒数第一个元素)
- list可以对数据进行分页操作,通常第一页的信息来自于list,第2页及更多的信息通过数据库的形式加载
4、Set
- 与hash存储结构完全相同key-value,但是仅存储key,value置空(nil)
- 不重复且无序
- 便于查询
基本操作
//添加元素
sadd key member1 member2...
//查看元素
smembers key
//移除元素
srem key member
//查看元素个数
scard key
//查看某个元素是否存在
sismember key member
扩展操作
//从set中任意选出count个元素
srandmember key count
//从set中任意选出count个元素并移除
spop key count
//求两个集合的交集、并集、差集
sinter key1 key2...
sunion key1 key2...
sdiff key1 key2... //从key1中去除重复的,剩下的是key1的
sdiff key2 key1... //从key2中去除重复的,剩下的是key2的
//求两个set的交集、并集、差集,并放入另一个set中
sinterstore 目标set key1 key2... //存入交集
sunionstore 目标set key1 key2... //存入并集
sdiffstore 目标set key1 key2... //存入差集
//求指定元素从原集合放入目标集合中
smove source destination key
使用场景
- 记录不同cookie/ip数量
- 快速去重,例如爬虫的结果
- 也可以反爬虫,设置黑名单,过滤ip/设备id/cookie
5、sorted_set
- 不重但有序(score)
- score可能重复,但是存储值不会重复
- 新的存储需求:数据排序有利于数据的有效展示,需要提供一种可以根据自身特征进行排序的方式
- 需要的存储结构:新的存储模型,可以保存可排序的数据
- sorted_set类型:在set的存储结构基础上添加可排序字段
- 功能:队列+权重
基本操作
//插入元素, 需要指定score(用于排序)
zadd key score1 member1 score2 member2
//查看元素(score升序), 当末尾添加withscore时,会将元素的score一起打印出来
zrange key start end [withscore]
//查看元素(score降序), 当末尾添加withscore时,会将元素的score一起打印出来
zrevrange key start end [withscore]
//移除元素
zrem key member1 member2...
//按条件获取数据, 其中offset为索引开始位置,count为获取的数目
zrangebyscore key min max [withscore] [limit offset count] //分页,对照mysql
zrevrangebyscore key max min [withscore] [limit offset count] //分页
//按条件移除元素
zremrangebyrank key start end //按索引删除
zremrangebysocre key min max //按score删除,闭区间
//按照从大到小的顺序移除count个值
zpopmax key [count]
//按照从小到大的顺序移除count个值
zpopmin key [count]
//获得元素个数
zcard key
//获得元素在范围内的个数
zcount min max
//求交集、并集并放入destination中, 其中numkey1为要去交集或并集集合的数目,并且会把相同的key的score累加
zinterstore destination numkeys key1 key2...
zunionstore destination numkeys key1 key2...
注意
- min与max用于限定搜索查询的条件
- start与stop用于限定查询范围,作用于索引,表示开始和结束索引
- offset与count用于限定查询范围,作用于查询结果,表示开始位置和数据总量
拓展操作
//查看某个元素的索引(排名)
zrank key member //正序第几,0开始
zrevrank key member //倒序第几,0开始
//查看某个元素索引的值,即score
zscore key member
//增加某个元素索引的值
zincrby key increment member
使用场景
- 设置到期时间,比如会员
127.0.0.1:6379> zadd tx 1509802345 uid:001
(integer) 1
127.0.0.1:6379> zadd tx 1509802376 uid:002
(integer) 1
127.0.0.1:6379> zadd tx 1509802456 uid:003
(integer) 1
127.0.0.1:6379> zrange tx 0 -1 withscores
1) "uid:001"
2) "1509802345"
3) "uid:002"
4) "1509802376"
5) "uid:003"
6) "1509802456"
//获取系统时间
127.0.0.1:6379> time
1) "1647834507"
2) "168936"
- 用score记录权重,带权重的消息队列
127.0.0.1:6379> zadd tasks 1 order:id:005
(integer) 1
127.0.0.1:6379> zadd tasks 4 order:id:214
(integer) 1
127.0.0.1:6379> zadd tasks 8 order:id:103
(integer) 1
127.0.0.1:6379> zrange tasks 0 -1 withscores
1) "order:id:005"
2) "1"
3) "order:id:214"
4) "4"
5) "order:id:103"
6) "8"
//执行完权重最高的任务后移除任务,这里操作不是原子性,需要开启事务
127.0.0.1:6379> zrevrange tasks 0 0
1) "order:id:103"
127.0.0.1:6379> zrem tasks order:id:103
(integer) 1
127.0.0.1:6379> zrange tasks 0 -1 withscores
1) "order:id:005"
2) "1"
3) "order:id:214"
4) "4"
注意事项
- score保存的数据存储空间是64位,如果是整数范围是-9007199254740992~9007199254740992
- score保存的数据也可以是一个双精度的double值,基于双精度浮点数的特征,可能会丢失精度,使用时候要慎重
- sorted_set 底层存储还是基于set结构的,因此数据不能重复,如果重复添加相同的数据,score值将被反复覆盖,返回是0,保留最后一次修改的结果
三、通用指令
1、Key的特征
- key是一个字符串,通过key获取redis中保存的数据
2、Key的操作
基本操作
//查看key是否存在
exists key
//删除key
del key
//查看key的类型
type key
拓展操作(时效性操作)
//设置生命周期
expire key seconds //秒
pexpire key milliseconds //毫秒
expireat key timestamp //使用时间戳
pexpireat key milliseconds-timestamp
//查看有效时间, 如果有有效时间则返回剩余有效时间, 如果为永久有效,则返回-1, 如果Key不存在则返回-2
ttl key //如果有有效时间则返回剩余有效时间,返回秒
pttl key //如果有有效时间则返回剩余有效时间,返回毫秒
//将有时限的数据设置为永久有效
persist key
拓展操作(查询操作)
//根据key查询符合条件的数据
keys pattern
查询规则
*
匹配任意数量的任意符号 ?
配合一个任意符号 []
匹配其中一个指定符号
keys *
查询所有keys it*
查询所有以it开头keys *heima
查询所有以heima结尾keys ??heima
查询所有前面两个字符任意,后面以heima结尾keys user:?
查询所有以user:开头,最后一个字符任意keys u[st]er:1
查询所有以u开头,以er:1结尾,中间包含一个字母,s或t
拓展操作(其他操作)
//重命名key,为了避免覆盖已有数据,尽量少去修改已有key的名字,如果要使用最好使用renamenx
rename key newKey
renamenx key newKey //nx,not exists 如果不存在才修改
//对所有key排序,key要能转成double才行
sort key
//查看所有关于key的操作, 可以使用Tab快速切换
help @generic
3、数据库通用操作
数据库
- Redis为每个服务提供有16个数据库,编号从0到15,默认使用的是0
- 每个数据库之间的数据相互独立
基本操作
//切换数据库 0~15
select index
//其他操作
quit //退出
ping //PONG,测试服务器是否连通,比如先启动redis客户端,再启动服务器,就会造成不连通
echo massage //massage是什么,就输出什么
拓展操作
//移动数据, 必须保证目的数据库中没有该数据,否则移动失败
mov key db
//查看该库中数据总量,就是keys * 查出来的key个数
dbsize
//数据清除
flushdb //清除当前数据库
flushall //清除所有数据库
三、Jedis
Java语言连接redis服务
JAVA操作Redis需要导入jar或引入Maven依赖
API文档:http://xetorthio.github.io/jedis/
1、Java操作redis的步骤
- 连接Redis
//参数为Redis所在的ip地址和端口号
Jedis jedis = new Jedis(String host, int port)
- 操作Redis
//操作redis的指令和redis本身的指令几乎一致
jedis.set(String key, String value);
- 断开连接
jedis.close();
2、配置工具
- 配置文件 redis.properties
redis.host=47.103.10.63
redis.port=6379
redis.maxTotal=30
redis.maxIdle=10
- 工具类
import redis.clients.jedis.Jedis;
import redis.clients.jedis.JedisPool;
import redis.clients.jedis.JedisPoolConfig;
import java.util.ResourceBundle;
/**
* @author Chen Panwen
* @data 2020/4/6 16:24
*/
public class JedisUtil {
private static Jedis jedis = null;
private static String host = null;
private static int port;
private static int maxTotal;
private static int maxIdle;
//使用静态代码块,只加载一次
static {
//读取配置文件
ResourceBundle resourceBundle = ResourceBundle.getBundle("redis");
//获取配置文件中的数据
host = resourceBundle.getString("redis.host");
port = Integer.parseInt(resourceBundle.getString("redis.port"));
//读取最大连接数
maxTotal = Integer.parseInt(resourceBundle.getString("redis.maxTotal"));
//读取最大活跃数
maxIdle = Integer.parseInt(resourceBundle.getString("redis.maxIdle"));
JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
jedisPoolConfig.setMaxTotal(maxTotal);
jedisPoolConfig.setMaxIdle(maxIdle);
//获取连接池
JedisPool jedisPool = new JedisPool(jedisPoolConfig, host, port);
jedis = jedisPool.getResource();
}
public Jedis getJedis() {
return jedis;
}
}
四、持久化
Redis容器配置redis.conf
-
redis容器里边的配置文件是需要在创建容器时映射进来的
停止容器:docker container stop myredis 删除容器:docker container rm myredis
-
重新开始创建容器
1. 创建docker统一的外部配置文件 mkdir -p docker/redis/{conf,data} 2. 在conf目录创建redis.conf的配置文件 touch /docker/redis/conf/redis.conf 3. redis.conf文件的内容需要自行去下载,网上很多 4. 创建启动容器,加载配置文件并持久化数据 docker run -d --privileged=true -p 6379:6379 -v /docker/redis/conf/redis.conf:/etc/redis/redis.conf -v /docker/redis/data:/data --name myredis redis redis-server /etc/redis/redis.conf --appendonly yes
-
文件目录
/docker/redis
1、简介
什么是持久化?
利用永久性存储介质将数据进行保存,在特定的时间将保存的数据进行恢复的工作机制称为持久化。
为什么要持久化
防止数据的意外丢失,确保数据安全性
持久化过程保存什么
- 将当前数据状态进行保存,快照形式,存储数据结果,存储格式简单,关注点在数据
- 将数据的操作过程进行保存,日志形式,存储操作过程,存储格式复杂,关注点在数据的操作过程
2、RDB
Redis DataBase
RDB启动方式——save
-
命令
save
-
作用
手动执行一次保存操作
RDB配置相关命令
在redis.conf中修改配置
- dbfilename dump.rdb
- 说明:设置本地数据库文件名,默认值为 dump.rdb
- 经验:通常设置为dump-端口号.rdb
- dir
- 说明:设置存储.rdb文件的路径
- 经验:通常设置成存储空间较大的目录中,目录名称data
- rdbcompression yes
- 说明:设置存储至本地数据库时是否压缩数据,默认为 yes,采用 LZF 压缩
- 经验:通常默认为开启状态,如果设置为no,可以节省 CPU 运行时间,但会使存储的文件变大(巨大)
- rdbchecksum yes
- 说明:设置是否进行RDB文件格式校验,该校验过程在写文件和读文件过程均进行
- 经验:通常默认为开启状态,如果设置为no,可以节约读写性过程约10%时间消耗,但是存在一定的数据损坏风险
RDB启动方式——save指令工作原理
注意:save指令的执行会阻塞当前Redis服务器,直到当前RDB过程完成为止,有可能会造成长时间阻塞,线上环境不建议使用。
RDB启动方式——bgsave
-
命令
bgsave
-
作用
手动启动后台保存操作,但不是立即执行
RDB启动方式 —— bgsave指令工作原理
注意: bgsave命令是针对save阻塞问题做的优化。Redis内部所有涉及到RDB操作都采用bgsave的方式,save命令可以放弃使用,推荐使用bgsave
bgsave的保存操作可以通过redis的日志查看
docker logs myredis
RDB启动方式 ——save配置
-
配置
save second changes
-
作用
满足限定时间范围内key的变化数量达到指定数量即进行持久化
-
参数
- second:监控时间范围
- changes:监控key的变化量
-
配置位置
在conf文件中进行配置
save 900 1 save 300 10 save 60 10000
RDB启动方式 ——save配置原理
注意:
- save配置要根据实际业务情况进行设置,频度过高或过低都会出现性能问题,结果可能是灾难性的
- save配置中对于second与changes设置通常具有互补对应关系(一个大一个小),尽量不要设置成包含性关系
- save配置启动后执行的是bgsave操作
RDB启动方式对比
方式 | save指令 | bgsave指令 |
---|---|---|
读写 | 同步 | 异步 |
阻塞客户端指令 | 是 | 否 |
额外内存消耗 | 否 | 是 |
启动新进程 | 否 | 是 |
RDB特殊启动形式
-
全量复制
- 在主从复制中详细讲解
-
服务器运行过程中重启
debug reload
-
关闭服务器时指定保存数据
shutdown save
-
默认情况下执行shutdown命令时,自动执行bgsave(如果没有开启AOF持久化功能)
RDB优缺点
- 优点
- RDB是一个紧凑压缩的二进制文件,存储效率较高
- RDB内部存储的是redis在某个时间点的数据快照,非常适合用于数据备份,全量复制等场景
- RDB恢复数据的速度要比AOF快很多
- 应用:服务器中每X小时执行bgsave备份,并将RDB文件拷贝到远程机器中,用于灾难恢复
- 缺点
- RDB方式无论是执行指令还是利用配置,无法做到实时持久化,具有较大的可能性丢失数据
- bgsave指令每次运行要执行fork操作创建子进程,要牺牲掉一些性能
- Redis的众多版本中未进行RDB文件格式的版本统一,有可能出现各版本服务之间数据格式无法兼容现象
3、AOF(优先使用)
append only file
RDB存储的弊端
- 存储数据量较大,效率较低
- 基于快照思想,每次读写都是全部数据,当数据量巨大时,效率非常低
- 大数据量下的IO性能较低
- 基于fork创建子进程,内存产生额外消耗
- 宕机带来的数据丢失风险
解决思路
- 不写全数据,仅记录部分数据
- 降低区分数据是否改变的难度,改记录数据为记录操作过程
- 对所有操作均进行记录,排除丢失数据的风险
AOF概念
- AOF(
append only file
)持久化:以独立日志的方式记录每次写命令,重启时再重新执行AOF文件中命令,以达到恢复数据的目的。与RDB相比可以简单描述为改记录数据为记录数据产生的过程 - AOF的主要作用是解决了数据持久化的实时性,目前已经是Redis持久化的主流方式
AOF写数据过程
AOF写数据三种策略(appendfsync)
appendfsync always
- 每次写入操作均同步到AOF文件中,数据零误差,性能较低,不建议使用
appendfsync everysec
- 每秒将缓冲区中的指令同步到AOF文件中,数据准确性较高,性能较高 ,建议使用,也是默认配置
- 在系统突然宕机的情况下丢失1秒内的数据
appendfsync no
- 由操作系统控制每次同步到AOF文件的周期,整体过程不可控
AOF功能开启
-
配置
appendonly yes|no
- 作用
- 是否开启AOF持久化功能,默认为不开启状态 ,会生成
.aof
文件
- 是否开启AOF持久化功能,默认为不开启状态 ,会生成
- 作用
-
配置
appendfsync always|everysec|no
- 作用
- AOF写数据策略
- 作用
-
配置
appendfilename filename
- 作用
- AOF持久化文件名,默认文件名未appendonly.aof,建议配置为appendonly-端口号.aof
- 作用
-
配置
dir /配置文件所在 目录
-
作用
- AOF持久化文件保存路径,与RDB持久化文件保持一致即可
AOF重写
作用
- 降低磁盘占用量,提高磁盘利用率
- 提高持久化效率,降低持久化写时间,提高IO性能
- 降低数据恢复用时,提高数据恢复效率
规则
-
进程内已超时的数据不再写入文件
-
忽略无效指令,重写时使用进程内数据直接生成,这样新的AOF文件只保留最终数据的写入命令
- 如del key1、 hdel key2、srem key3、set key4 111、set key4 222等
-
对同一数据的多条写命令合并为一条命令
- 如lpush list1 a、lpush list1 b、 lpush list1 c 可以转化为:lpush list1 a b c
- 为防止数据量过大造成客户端缓冲区溢出,对list、set、hash、zset等类型,每条指令最多写入64个元素
如何使用
-
手动重写
bgrewriteaof
-
自动重写
auto-aof-rewrite-min-size size auto-aof-rewrite-percentage percentage
-
自动重写触发比对参数( 运行指令info Persistence获取具体信息 )
aof_current_size aof_base_size
-
自动重写触发条件
aof_current_size > auto-aof-rewrite-min-size (aof_current_size-aof_base_size / aof_base_size) >= auto-aof-rewrite-percentage
工作原理
AOF自动重写
-
自动重写触发条件设置
//触发重写的最小大小 auto-aof-rewrite-min-size size //触发重写须达到的最小百分比 auto-aof-rewrite-percentage percent
-
自动重写触发比对参数( 运行指令info Persistence获取具体信息 )
//当前.aof的文件大小 aof_current_size //基础文件大小 aof_base_size
-
自动重写触发条件
工作原理
缓冲策略
AOF缓冲区同步文件策略,由参数appendfsync控制
- write操作会触发延迟写(delayed write)机制,Linux在内核提供页缓冲区用 来提高硬盘IO性能。write操作在写入系统缓冲区后直接返回。同步硬盘操作依赖于系统调度机制,例如:缓冲区页空间写满 或 达到特定时间周期。同步文件之 前,如果此时系统故障宕机,缓冲区内数据将丢失。
- fsync针对单个文件操作(比如AOF文件),做强制硬盘同步,fsync将阻塞直到写入硬盘完成后返回,保证了数据持久化。
4、RDB VS AOF
RDB与AOF的选择之惑
-
对数据非常敏感,建议使用默认的AOF持久化方案
- AOF持久化策略使用everysecond,每秒钟fsync一次。该策略redis仍可以保持很好的处理性能,当出现问题时,最多丢失0-1秒内的数据。
-
注意:由于AOF文件存储体积较大,且恢复速度较慢
-
数据呈现阶段有效性,建议使用RDB持久化方案
- 数据可以良好的做到阶段内无丢失(该阶段是开发者或运维人员手工维护的),且恢复速度较快,阶段点数据恢复通常采用RDB方案
-
注意:利用RDB实现紧凑的数据持久化会使Redis降的很低
-
综合比对
- RDB与AOF的选择实际上是在做一种权衡,每种都有利有弊
- 如不能承受数分钟以内的数据丢失,对业务数据非常敏感,选用AOF
- 如能承受数分钟以内的数据丢失,且追求大数据集的恢复速度,选用RDB
- 灾难恢复选用RDB
- 双保险策略,同时开启 RDB 和 AOF,重启后,Redis优先使用 AOF 来恢复数据,降低丢失数据
5、持久化应用场景
- Tips 1:
redis用于控制数据库表主键id,为数据库表主键提供生成策略,保障数据库表的主键唯一性 - Tips 3:
redis应用于各种结构型和非结构型高热度数据访问加速 - Tips 4:
redis 应用于购物车数据存储设计 - Tips 5:redis 应用于抢购,限购类、限量发放优惠卷、激活码等业务的数据存储设计
- Tips 6:redis 应用于具有操作先后顺序的数据控制
- Tips 7:redis 应用于最新消息展示
- Tips 9:
redis 应用于同类信息的关联搜索,二度关联搜索,深度关联搜索关系型 - Tips 12:redis 应用于基于黑名单与白名单设定的服务控制
长期策略(存数据库) 短期策略(持久化) - Tips 13:redis 应用于计数器组合排序功能对应的排名
- Tips 15:
redis 应用于即时任务/消息队列执行管理MQ - Tips 16:redis 应用于按次结算的服务控制
五、Redis事务
1、Redis事务的定义
redis事务就是一个命令执行的队列,将一系列预定义命令包装成一个整体(一个队列)。当执行时,一次性按照添加顺序依次执行,中间不会被打断或者干扰
2、事务的基本操作
-
开启事务
multi
- 作用
- 作设定事务的开启位置,此指令执行后,后续的所有指令均加入到事务中,创建任务队列
- 作用
-
取消事务
discard
- 作用
- 终止当前事务的定义,发生在multi之后,exec之前
- 作用
-
执行(提交)事务
exec
- 作用
- 设定事务的结束位置,同时执行事务。与multi成对出现,成对使用。执行任务队列中的任务
- 作用
3、事务操作的基本流程
4、事务操作的注意事项
定义事务的过程中,命令格式输入错误怎么办?
- 语法错误
- 指命令书写格式有误 例如执行了一条不存在的指令
- 处理结果
- 如果定义的事务中所包含的命令存在语法错误,整体事务中所有命令均不会执行。包括那些语法正确的命令
定义事务的过程中,命令执行出现错误怎么办?
- 运行错误
- 指命令格式正确,但是无法正确的执行。例如对list进行incr操作
- 处理结果
- 能够正确运行的命令会执行,运行错误的命令不会被执行
注意:已经执行完毕的命令对应的数据不会自动回滚,需要程序员自己在代码中实现回滚。
- 如何回滚? 手动写一行行代码恢复成之前的数据
手动进行事务回滚
- 记录操作过程中被影响的数据之前的状态
- 单数据:string
- 多数据:hash、list、set、zset
- 设置指令恢复所有的被修改的项
- 单数据:直接set(注意周边属性,例如时效)
- 多数据:修改对应值或整体克隆复制
5、基于特定条件的事务执行
锁
-
在开启事务前,对 key 添加监视锁,监控的是其他客户端的操作。在执行exec前如果key发生了变化,终止事务执行
watch key1, key2....
-
取消对所有key的监视
unwatch
分布式锁
-
使用 setnx 设置一个公共锁, 相当于lock-key是java中的对象锁,所有操作此区域的客户端都需要先尝试获取锁
//上锁 另一端客户端操作前也需要用这个指令尝试获取锁,然后再进行之后的操作 setnx lock-key value //释放锁 del lock-key
- 利用setnx命令的返回值特征,有值(被上锁了)则返回设置失败,无值(没被上锁)则返回设置成功
- 操作完毕通过del操作释放锁
注意:上述解决方案是一种设计概念,依赖规范保障,具有风险性。如果程序员不遵守规范(就是不获取锁直接往下操作),还是无法保证数据安全。
分布式锁加强
-
使用 expire 为锁key添加时间限定,到时不释放,放弃锁
expire lock-key seconds pexpire lock-key milliseconds
-
由于操作通常都是微秒或毫秒级,因此该锁定时间不宜设置过大。具体时间需要业务测试后确认。
- 例如:持有锁的操作最长执行时间127ms,最短执行时间7ms。
- 测试百万次最长执行时间对应命令的最大耗时,测试百万次网络延迟平均耗时
- 锁时间设定推荐:最大耗时120%+平均网络延迟110%
- 如果业务最大耗时<<网络平均延迟,通常为2个数量级,取其中单个耗时较长即可
六、删除策略
Redis中的数据特征
Redis是一种内存级数据库,所有数据均存放在内存中,内存中的数据可以通过TTL指令获取其状态
- XX :具有时效性的数据
- -1 :永久有效的数据
- -2 :已经过期的数据 或 被删除的数据 或 未定义的数据
1、数据删除策略
- 定时删除
- 惰性删除
- 定期删除
时效性数据的存储结构
- Redis中的数据,在expires(过期字典)中以哈希的方式保存在其中。其key是数据在内存中的地址,value是对应的生命周期
- EXPIRE
<key>
<seconds>
- PEXPIRE
<key>
<millionseconds>
- EXPIREAT
<key>
<timestamp>
- PEXPIREAT
<key>
<timestamp>
数据删除策略的目标
在内存占用与CPU占用之间寻找一种平衡,顾此失彼都会造成整体redis性能的下降,甚至引发服务器宕机或内存泄露
2、三种删除策略
定时删除
- 创建一个定时器,当key设置有过期时间,且过期时间到达时,由定时器任务立即执行对键的删除操作
- 优点:节约内存,到时就删除,快速释放掉不必要的内存占用
- 缺点:CPU压力很大,无论CPU此时负载量多高,均占用CPU,会影响redis服务器响应时间和指令吞吐量
- 总结:用处理器性能换取存储空间 (拿时间换空间)
惰性删除
- 数据到达过期时间,不做处理。等下次访问该数据时,系统自动执行expireIfNeeded()检查数据是否过期
- 如果未过期,返回数据
- 发现已过期,删除,返回不存在
- 优点:节约CPU性能,发现必须删除的时候才删除
- 缺点:内存压力很大,出现长期占用内存的数据
- 总结:用存储空间换取处理器性能 (拿空间换时间)
定期删除
cron: 计划任务
- 周期性轮询redis库中的时效性数据,采用随机抽取的策略,利用过期数据占比的方式控制删除频度
- 特点1:CPU性能占用设置有峰值,检测频度可自定义设置
- 特点2:内存压力不是很大,长期占用内存的冷数据会被持续清理
- 总结:周期性抽查存储空间 (随机抽查,重点抽查)
3、逐出算法(8种策略)
**当新数据进入redis时,如果内存不足怎么办? **
- Redis使用内存存储数据,在执行每一个命令前,会调用
freeMemoryIfNeeded()
检测内存是否充足。如果内存不满足新加入数据的最低存储要求,redis要临时删除一些数据为当前指令清理存储空间(数据淘汰/逐出)。清理数据的策略称为逐出算法 - 注意:逐出数据的过程不是100%能够清理出足够的可使用的内存空间,如果不成功则反复执行。当对所有数据尝试完毕后,如果不能达到内存清理的要求,将出现错误信息。
(error) OOM command not allowed when used memory >'maxmemory'
影响数据逐出的相关配置
-
最大可使用内存
maxmemory xx
占用物理内存的比例,默认值为0,表示不限制。生产环境中根据需求设定,通常设置在50%以上。
-
每次选取待删除数据的个数
maxmemory-samples xx
选取数据时并不会全库扫描,导致严重的性能消耗,降低读写性能。因此采用随机获取数据的方式作为待检测删除数据
-
删除策略
maxmemory-policy xxxxxx
达到最大内存后的,对被挑选出来的数据进行删除的策略
影响数据逐出的相关配置
LRU(Least Recently Used):最长时间没被使用的数据
LFU(Least Frequently Used):一段时间内使用次数最少的数据
-
检测易失数据(过期字典里面的数据,可能会过期的数据集
server.db[i].expires
)-
① volatile-lru:挑选最近最少使用的数据淘汰 建议
-
② volatile-lfu:挑选最近使用次数最少的数据淘汰
-
③ volatile-ttl:挑选将要过期的数据淘汰
-
④ volatile-random:任意选择数据淘汰
-
-
检测全库数据(所有数据集
server.db[i].dict
)-
⑤ allkeys-lru:挑选最近最少使用的数据淘汰
-
⑥ allkeys-lfu:挑选最近使用次数最少的数据淘汰
-
⑦ allkeys-random:任意选择数据淘汰
-
-
放弃数据驱逐
- ⑧ no-enviction(驱逐):禁止驱逐数据(redis4.0中默认策略),会引发错误
OOM(Out Of Memory)
- ⑧ no-enviction(驱逐):禁止驱逐数据(redis4.0中默认策略),会引发错误
数据逐出策略配置依据
- 使用INFO命令输出监控信息,查询缓存 hit 和 miss 的次数,根据业务需求调优Redis配置
七、高级数据类型
1、Bitmaps
基础操作
-
获取指定key对应偏移量上的bit值
getbit key offset
-
设置指定key对应偏移量上的bit值,value只能是1或0
setbit key offset value
扩展操作
-
对指定key按位进行交、并、非、异或操作,并将结果保存到destKey中
bitop op destKey key1 [key2...]
op:
- and:交
- or:并
- not:非
- xor:异或
-
统计指定key中1的数量
bitcount key [start end]
2、HyperLogLog
基于LOGLOG算法,比较复杂,感兴趣自行搜索
基数
- 基数是数据集去重后元素个数
- HyperLogLog 是用来做基数统计的,运用了LogLog的算法
基本操作
-
添加数据
pfadd key element1, element2...
-
统计数据
pfcount key1 key2.... //返回的是基数
-
合并数据
pfmerge destkey sourcekey [sourcekey...]
相关说明
- 用于进行基数统计,不是集合,不保存数据,只记录数量而不是具体数据
- 核心是基数估算算法,最终数值存在一定误差,不适合精确统计
- 误差范围:基数估计的结果是一个带有 0.81% 标准错误的近似值
- 耗空间极小,每个hyperloglog key占用了12K的内存用于标记基数
- pfadd命令不是一次性分配12K内存使用,会随着基数的增加内存逐渐增大
- Pfmerge命令合并后占用的存储空间为12K,无论合并之前数据量多少
3、GEO
redis 应用于地理位置计算
基本操作
-
添加坐标点
geoadd key longitude(经度) latitude(纬度) member [longitude latitude member ...] georadius key longitude latitude radius m|km|ft|mi [withcoord] [withdist] [withhash] [count count]
-
获取坐标点
geopos key member [member ...] georadiusbymember key member radius m|km|ft|mi [withcoord] [withdist] [withhash] [count count]
-
计算坐标点距离
geodist key member1 member2 [unit] geohash key member [member ...]
> geoadd geos 1 1 a //向geos群组中保存a点坐标
1
> geoadd geos 2 2 b //向geos群组中保存b点坐标
1
> geopos geos a //获得geos群组中a点坐标
0.99999994039535522
0.99999945914297683
> geodist geos a b //计算a与b的距离(默认是米 m)
157270.0561
八、主从复制(正片开始)
互联网“三高”架构
- 高并发
- 高性能
- 高可用 能够正常使用的时间占用全部时间的比例
你的“Redis”是否高可用?
单机redis的风险与问题
- 问题1.机器故障
- 现象:硬盘故障、系统崩溃
- 本质:数据丢失,很可能对业务造成灾难性打击
- 结论:基本上会放弃使用redis.
- 问题2.容量瓶颈
- 现象:内存不足,从16G升级到64G,从64G升级到128G,无限升级内存
- 本质:穷,硬件条件跟不上
- 结论:放弃使用redis
- 结论:
- 为了避免单点Redis服务器故障,准备多台服务器,互相连通。将数据复制多个副本保存在不同的服务器上,连接在一起,并保证数据是同步的。即使有其中一台服务器宕机,其他服务器依然可以继续提供服务,实现Redis的高可用,同时实现数据冗余备份。
1、简介
多台服务器连接方案
- 提供数据方:master
- 主服务器,主节点,主库,写
- 主客户端
- 接收数据的方:slave
- 从服务器,从节点,从库,读
- 从客户端
- 需要解决的问题
- 数据同步
- 核心工作
- master的数据复制到slave中
主从复制
主从复制即将master中的数据即时、有效的复制到slave中
特征:一个master可以拥有多个slave,一个slave只对应一个master
职责:
- master:
- 写数据
- 执行写操作时,将出现变化的数据自动同步到slave
- 读数据(可忽略),也可以禁止掉
- slave:
- 读数据
- 写数据(禁止)
2、作用
- 读写分离:master写、slave读,提高服务器的读写负载能力
- 负载均衡:基于主从结构,配合读写分离,由slave分担master负载,并根据需求的变化,改变slave的数量,通过多个从节点分担数据读取负载,大大提高Redis服务器并发量与数据吞吐量
- 故障恢复:当master出现问题时,由slave提供服务,实现快速的故障恢复
- 数据冗余:实现数据热备份,是持久化之外的一种数据冗余方式
- 高可用基石:基于主从复制,构建哨兵模式与集群,实现Redis的高可用方案

3、工作流程
总述
- 主从复制过程大体可以分为3个阶段
- 建立连接阶段(即准备阶段) slave连接master
- 数据同步阶段
- 命令传播阶段
阶段一:建立连接
**主从连接(slave连接master) **
-
方式一:客户端发送命令
slaveof <masterip> <masterport>
-
方式二:启动服务器参数
redis-server -slaveof <masterip> <masterport>
-
方式三:服务器配置 (常用)
slaveof <masterip> <masterport>
主从断开连接
-
slave客户端发送命令
slaveof no one
- 说明: slave断开连接后,不会删除已有数据,只是不再接受master发送的数据
授权访问
-
master客户端发送命令设置密码
requirepass <password>
-
master配置文件设置密码
config set requirepass <password> config get requirepass
-
slave客户端发送命令设置密码
auth <password>
-
slave配置文件设置密码
masterauth <password>
-
slave启动服务器设置密码
redis-server –a <password>
阶段二:数据同步阶段
- slave发送数据同步请求psync2
- 全量复制
- 将master执行bgsave之前,master中所有的数据同步到slave中
- 部分复制(增量复制)
- 将master执行bgsave操作中,新加入的数据(复制缓冲区中的数据)传给slave,slave通过bgrewriteaof指令重写来恢复数据
数据同步阶段master说明
- 如果master数据量巨大,数据同步阶段应避开流量高峰期,避免造成master阻塞,影响业务正常执行
- 复制缓冲区大小设定不合理,会导致数据溢出。如进行全量复制周期太长,进行部分复制时发现数据已经存在丢失的情况,必须进行第二次全量复制,致使slave陷入死循环状态。
repl-backlog-size 1mb //master端
- master单机内存占用主机内存的比例不应过大,建议使用50%-70%的内存,留下30%-50%的内存用于执行bgsave命令和创建复制缓冲区
数据同步阶段slave说明
- 为避免slave进行全量复制、部分复制时服务器响应阻塞或数据不同步,建议关闭此期间的对外服务
slave-serve-stale-data yes|no
- 数据同步阶段,master发送给slave信息可以理解master是slave的一个客户端,主动向slave发送命令
- 多个slave同时对master请求数据同步,master发送的RDB文件增多,会对带宽造成巨大冲击,如果master带宽不足,因此数据同步需要根据业务需求,适量错峰
- slave过多时,建议调整拓扑结构,由一主多从结构变为树状结构,中间的节点既是master,也是 slave。注意使用树状结构时,由于层级深度,导致深度越高的slave与最顶层master间数据同步延迟较大,数据一致性变差,应谨慎选择
阶段三:命令传播阶段
-
当master数据库状态被修改后,导致主从服务器数据库状态不一致,此时需要让主从数据同步到一致的状态,同步的动作称为命令传播
-
master将接收到的数据变更命令发送给slave,slave接收命令后执行命令
-
主从复制过程大体可以分为3个阶段
- 建立连接阶段(即准备阶段)
- 数据同步阶段
- 命令传播阶段
命令传播阶段的部分复制
-
命令传播阶段出现了断网现象
- 网络闪断闪连 忽略
- 短时间网络中断 部分复制
- 长时间网络中断 全量复制
-
部分复制的三个核心要素
- 服务器的运行 id(runid)
- 主服务器的复制积压缓冲区
- 主从服务器的复制偏移量
服务器运行ID(runid)
- 概念:服务器运行ID是每一台服务器每次运行的身份识别码,一台服务器多次运行可以生成多个运行id
- 组成:运行id由40位字符组成,是一个随机的十六进制字符 例如- -
- fdc9ff13b9bbaab28db42b3d50f852bb5e3fcdce
- 作用:运行id被用于在服务器间进行传输,识别身份
- 如果想两次操作均对同一台服务器进行,必须每次操作携带对应的运行id,用于对方识别
- 实现方式:运行id在每台服务器启动时自动生成的,master在首次连接slave时,会将自己的运行ID发送给slave,slave保存此ID,通过info Server命令,可以查看节点的runid
复制缓冲区
- 概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出(FIFO)的队列,用于存储服务器执行过的命令,每次传播命令,master都会将传播的命令记录下来,并存储在复制缓冲区
- 由来:每台服务器启动时,如果开启有AOF或被连接成为master节点,即创建复制缓冲区
- 作用:用于保存master收到的所有指令(仅影响数据变更的指令,例如set,select)
- 数据来源:当master接收到主客户端的指令时,除了将指令执行,会将该指令存储到缓冲区中
复制缓冲区内部工作原理
主从服务器复制偏移量(offset)
- 概念:一个数字,描述复制缓冲区中的指令字节位置
- 分类:
- master复制偏移量:记录发送给所有slave的指令字节对应的位置(多个)
- slave复制偏移量:记录slave接收master发送过来的指令字节对应的位置(一个)
- 数据来源: master端:发送一次记录一次 slave端:接收一次记录一次
- 作用:同步信息,比对master与slave的差异,当slave断线后,恢复数据使用
数据同步+命令传播阶段工作流程(重点)
心跳机制
- 进入命令传播阶段候,master与slave间需要进行信息交换,使用心跳机制进行维护,实现双方连接保持在线
- master心跳:
- 指令:PING
- 周期:由repl-ping-slave-period决定,默认10秒
- 作用:判断slave是否在线
- 查询:INFO replication 获取slave最后一次连接时间间隔,lag项维持在0或1视为正常
- slave心跳任务
- 指令:
REPLCONF ACK {offset}
告诉master,我现在数据同步到这了,有新数据吗? - 周期:1秒
- 作用1:汇报slave自己的复制偏移量,获取最新的数据变更指令
- 作用2:判断master是否在线
- 指令:
心跳阶段注意事项
-
当slave多数掉线,或延迟过高时,master为保障数据稳定性,将拒绝所有信息同步操作
min-slaves-to-write 2 min-slaves-max-lag 8
- slave数量少于2个,或者所有slave的延迟都大于等于10秒时,强制关闭master写功能,停止数据同步
-
slave数量由slave发送REPLCONF ACK命令做确认
-
slave延迟由slave发送REPLCONF ACK命令做确认
完整流程
常见问题
频繁的全量复制(1)
伴随着系统的运行,master的数据量会越来越大,一旦master重启,runid将发生变化,会导致全部slave的全量复制操作
内部优化调整方案:
-
master内部创建
master_replid
变量,使用runid
相同的策略生成,长度41位,并发送给所有slave -
在master关闭时执行命令 shutdown save,进行RDB持久化,将
runid
与offset
保存到RDB文件中-
repl-id repl-offset
-
通过
redis-check-rdb
命令可以查看该信息
-
-
master重启后加载RDB文件,恢复数据。重启后,将RDB文件中保存的
repl-id
与repl-offset
加载到内存中-
master_repl_id = repl master_repl_offset = repl-offset
-
通过info命令可以查看该信息
-
作用:
- 本机保存上次runid,重启后恢复该值,使所有slave认为还是之前的master
频繁的全量复制(2)
-
问题现象
- 网络环境不佳,出现网络中断,slave不提供服务
-
问题原因
- 复制缓冲区过小,断网后slave的offset越界,触发全量复制
-
最终结果
- slave反复进行全量复制
-
解决方案
-
修改复制缓冲区大小
-
repl-backlog-size
-
-
建议设置如下:
- 测算从master到slave的重连平均时长second
- 获取master平均每秒产生写命令数据总量
write_size_per_second
最优复制缓冲区空间 = 2 * second * write_size_per_second
频繁的网络中断(1)
-
问题现象
- master的CPU占用过高 或 slave频繁断开连接
-
问题原因
- slave每1秒发送REPLCONF ACK命令到master
- 当slave接到了慢查询时(keys * ,hgetall等),会大量占用CPU性能
- master每1秒调用复制定时函数
replicationCron()
,比对slave发现长时间没有进行响应
-
最终结果
- master各种资源(输出缓冲区、带宽、连接等)被严重占用
-
解决方案
-
通过设置合理的超时时间,确认是否释放slave
-
repl-timeout
- 该参数定义了超时时间的阈值(默认60秒),超过该值,释放slave
-
频繁的网络中断(2)
-
问题现象
- slave与master连接断开
-
问题原因
- master发送ping指令频度较低
- master设定超时时间较短
- ping指令在网络中存在丢包
-
解决方案
-
提高ping指令发送的频度
-
repl-ping-slave-period
- 超时时间repl-time的时间至少是ping指令频度的5到10倍,否则slave很容易判定超时
-
数据不一致
-
问题现象
- 多个slave获取相同数据不同步
-
问题原因
- 网络信息不同步,数据发送有延迟
-
解决方案
-
优化主从间的网络环境,通常放置在同一个机房部署,如使用阿里云等云服务器时要注意此现象
-
监控主从节点延迟(通过offset)判断,如果slave延迟过大,暂时屏蔽程序对该slave的数据访问
-
slave-serve-stale-data yes|no
- 开启后仅响应info、slaveof等少数命令(慎用,除非对数据一致性要求很高)
-
九、哨兵
0、master宕机了怎么办?
- 将宕机的master下线
- 找一个slave作为master
- 修改其他slave的配置,连接新的master
- 启动新的master与slave
全量复制*N
+部分复制*N
问题:
- 谁来确认master宕机了?
- 关闭期间的数据服务谁来承接?
- 找一个主?怎么找法?
- 修改配置后,原始的主恢复了怎么办?
1、简介
哨兵(sentinel) 是一个分布式系统,用于对主从结构中的每台服务器进行监控,当出现故障时通过投票机制选择新的master并将所有slave连接到新的master。
2、作用
- 监控
- 不断的检查master和slave是否正常运行。 master存活检测、master与slave运行情况检测
- 通知(提醒)
- 当被监控的服务器出现问题时,向其他(哨兵间,客户端)发送通知。
- 自动故障转移
- 断开master与slave连接,选取一个slave作为master,将其他slave连接到新的master,并告知客户端新的服务器地址
注意:
哨兵也是一台redis服务器,只是不提供数据服务 通常哨兵配置数量为单数,方便投票
3、配置哨兵
-
配置一拖二的主从结构
-
配置三个哨兵(配置相同,端口不同)
- 参看sentinel.conf
-
启动哨兵
redis-sentinel sentinel端口号.conf
4、工作原理
哨兵在进行主从切换过程中经历三个阶段
- 监控
- 通知
- 故障转移
监控阶段
- 用于同步各个节点的状态信息
- 获取各个sentinel的状态(是否在线) ping
- 获取master的状态 info
- master属性
- runid
- role:master
- 各个slave的详细信息
- master属性
- 获取所有slave的状态(根据master中的slave信息) info
- slave属性
- runid
- role:slave
- master_host、master_port
- offset
- …
- slave属性
通知阶段
- 各个哨兵将得到的信息相互同步(信息对称)
故障转移
确认master下线
- 当某个哨兵发现主服务器挂掉了,会将master中的SentinelRedistance中的master改为SRI_S_DOWN(主观下线),并通知其他哨兵,告诉他们发现master挂掉了。
- 其他哨兵在接收到该哨兵发送的信息后,也会尝试去连接master,如果超过半数(配置文件中设置的)确认master挂掉后,会将master中的SentinelRedistance中的master改为SRI_O_DOWN(客观下线)
推选哨兵进行处理
- 在确认master挂掉以后,会推选出一个哨兵来进行故障转移工作(由该哨兵来指定哪个slave来做新的master)。
- 筛选方式是哨兵互相发送消息,并且参与投票,票多者当选。
具体处理
- 由推选出来的哨兵对当前的slave进行筛选,筛选条件有:
- 在线的
- pass掉响应慢的
- pass与原master断开时间久的
- 优先原则
- 优先级
- offset
- runid
- 发送指令( sentinel )
- 向新的master发送slaveof no one(断开与原master的连接)
- 向其他slave发送slaveof 新masterIP端口(让其他slave与新的master相连)
十、集群
0、现状问题
业务发展过程中遇到的峰值瓶颈
- redis提供的服务OPS可以达到10万/秒,当前业务OPS已经达到10万/秒
- OPS:operation per second 每秒操作次数
- 内存单机容量达到256G,当前业务需求内存容量1T
- 使用集群的方式可以快速解决上述问题
1、简介
集群架构
- 集群就是使用网络将若干台计算机联通起来,并提供统一的管理方式,使其对外呈现单机的服务效果
集群作用
- 分散单台服务器的访问压力,实现负载均衡
- 分散单台服务器的存储压力,实现可扩展性
- 降低单台服务器宕机带来的业务灾难
2、Redis集群结构设计
数据存储设计
- 通过算法设计,计算出key应该保存的位置
- 将所有的存储空间计划切割成16384份,每台主机保存一部分,每份代表的是一个存储空间,不是一个key的保存空间
- 将key按照计算出的结果放到对应的存储空间
- 增强可扩展性 ——槽
集群内部通讯设计
- 各个数据库互相连通,保存各个库中槽的编号数据
- 一次命中,直接返回
- 一次未命中,告知具体的位置,key再直接去找对应的库保存数据
3、Cluster集群结构搭建
搭建方式
- 原生安装(单条命令)
- 配置服务器(3主3从)
- 建立通信(Meet)
- 分槽(Slot)
- 搭建主从(master-slave)
- 工具安装(批处理)
Cluster配置
- 添加节点
cluster-enabled yes|no
- cluster配置文件名,该文件属于自动生成,仅用于快速查找文件并查询文件内容
cluster-config-file <filename>
- 节点服务响应超时时间,用于判定该节点是否下线或切换为从节点
cluster-node-timeout <milliseconds>
- master连接的slave最小数量
cluster-migration-barrier <count>
Cluster节点操作命令
- 查看集群节点信息
cluster nodes
- 进入一个从节点 redis,切换其主节点
cluster replicate <master-id>
- 发现一个新节点,新增主节点
cluster meet ip:port
- 忽略一个没有solt的节点
cluster forget <id>
- 手动故障转移
cluster failover
redis-trib命令
- 添加节点
redis-trib.rb add-node
- 删除节点
redis-trib.rb del-node
- 重新分片
redis-trib.rb reshard
十一、企业级解决方案(重点)
1、缓存预热
“宕机”
- 服务器启动后迅速宕机
问题排查
- 请求数量较高
- 主从之间数据吞吐量较大,数据同步操作频度较高
解决方案
- 前置准备工作:
- 日常例行统计数据访问记录,统计访问频度较高的热点数据
- 利用LRU数据删除策略,构建数据留存队列
- 例如:storm与kafka配合
- 准备工作:
- 将统计结果中的数据分类,根据级别,redis优先加载级别较高的热点数据
- 利用分布式多服务器同时进行数据读取,提速数据加载过程
- 热点数据主从同时预热
- 实施:
- 使用脚本程序固定触发数据预热过程
- 如果条件允许,使用了CDN(内容分发网络),效果会更好
总结
缓存预热就是系统启动前,提前将相关的缓存数据直接加载到缓存系统。避免在用户请求的时候,先查询数据库,然后再将数据缓存的问题!用户直接查询事先被预热的缓存数据!
2、缓存雪崩(大量key过期)
数据库服务器崩溃(1)
- 系统平稳运行过程中,忽然数据库连接量激增
- 应用服务器无法及时处理请求
- 大量408,500错误页面出现
- 客户反复刷新页面获取数据
- 数据库崩溃
- 应用服务器崩溃
- 重启应用服务器无效
- Redis服务器崩溃
- Redis集群崩溃
- 重启数据库后再次被瞬间流量放倒
问题排查
- 在一个较短的时间内,缓存中较多的key集中过期
- 此周期内请求访问过期的数据,redis未命中,redis向数据库获取数据
- 数据库同时接收到大量的请求无法及时处理
- Redis大量请求被积压,开始出现超时现象
- 数据库流量激增,数据库崩溃
- 重启后仍然面对缓存中无数据可用
- Redis服务器资源被严重占用,Redis服务器崩溃
- Redis集群呈现崩塌,集群瓦解
- 应用服务器无法及时得到数据响应请求,来自客户端的请求数量越来越多,应用服务器崩溃
- 应用服务器,redis,数据库全部重启,效果不理想
问题分析
- 短时间范围内
- 大量key集中过期
解决方案(道)
- 更多的页面静态化处理
- 构建多级缓存架构 Nginx缓存+redis缓存+ehcache缓存
- 检测Mysql严重耗时业务进行优化,对数据库的瓶颈排查:例如超时查询、耗时较高事务等
- 灾难预警机制 监控redis服务器性能指标
- CPU占用、CPU使用率
- 内存容量
- 查询平均响应时间
- 线程数
- 限流、降级 短时间范围内牺牲一些客户体验,限制一部分请求访问,降低应用服务器压力,待业务低速运转后再逐步放开访问
解决方案(术)
- (删除策略) 定期,定时,惰性
- 数据有效期策略调整
- 根据业务数据有效期进行分类错峰,A类90分钟,B类80分钟,C类70分钟。避免热点数据同时过期
- 过期时间使用固定时间+随机值的形式,稀释集中到期的key的数量
- 超热数据使用永久key
- 定期维护(自动+人工) 对即将过期数据做访问量分析,确认是否延时,配合访问量统计,做热点数据的延时
- 加锁 慎用!
总结
缓存雪崩就是瞬间过期数据量太大,导致对数据库服务器造成压力。如能够有效避免过期时间集中,可以有效解决雪崩现象的出现 (约40%),配合其他策略一起使用,并监控服务器的运行数据,根据运行记录做快速调整。
3、缓存击穿(少量key过期)
数据库服务器崩溃(2)
- 系统平稳运行过程中
- 数据库连接量瞬间激增
- Redis服务器无大量key过期,只是某一个key过期
- Redis内存平稳,无波动
- Redis服务器CPU正常
- 数据库崩溃
问题排查
- Redis中某个key过期,该key访问量巨大
- 多个数据请求从服务器直接压到Redis后,均未命中
- Redis在短时间内发起了大量对数据库中同一数据的访问
问题分析
- 单个key高热数据
- key过期
解决方案(术)
-
预先设定
以电商为例,每个商家根据店铺等级,指定若干款主打商品,在购物节期间,加大此类信息key的过期时长
注意:购物节不仅仅指当天,以及后续若干天,访问峰值呈现逐渐降低的趋势
-
现场调整
- 监控访问量,对自然流量激增的数据延长过期时间或设置为永久性key
-
后台刷新数据
- 启动定时任务,高峰期来临之前,刷新数据有效期,确保不丢失
-
二级缓存
- 设置不同的失效时间,保障不会被同时淘汰就行
-
加锁 分布式锁,防止被击穿,但是要注意也是性能瓶颈,慎重!
总结
缓存击穿就是单个高热数据过期的瞬间,数据访问量较大,未命中redis后,发起了大量对同一数据的数据库问,导致对数据库服务器造成压力。应对策略应该在业务数据分析与预防方面进行,配合运行监控测试与即时调整策略,毕竟单个key的过期监控难度较高,配合雪崩处理策略即可
4、缓存穿透(数据库没有key)
数据库服务器崩溃(3)
- 系统平稳运行过程中
- 应用服务器流量随时间增量较大
- Redis服务器命中率随时间逐步降低,因为每一次都在redis和mysql查不到,不会缓存。
- Redis内存平稳,内存无压力
- Redis服务器CPU占用激增
- 数据库服务器压力激增
- 数据库崩溃
问题排查
- Redis中大面积出现未命中
- 出现非正常URL访问
问题分析
- 获取的数据在数据库中也不存在,数据库查询未得到对应数据
- Redis获取到null数据未进行持久化,直接返回
- 下次此类数据到达重复上述过程
- 出现黑客攻击服务器
解决方案(术)
- 缓存null
- 对查询结果为null的数据进行缓存(长期使用,定期清理),设定短时限,例如30-60秒,最高5分钟
- 只能应对较少的不存在的key,多了很浪费内存
- 白名单策略
- 提前预热各种分类数据id对应的bitmaps,id作为bitmaps的offset,相当于设置了数据白名单。当加载正常数据时,放行,加载异常数据时直接拦截(效率偏低)
- 使用布隆过滤器(有关布隆过滤器的命中问题(不保证100%匹配成功)对当前状况可以忽略)
- 实施监控
- 实时监控redis命中率(业务正常范围时,通常会有一个波动值)与null数据的占比
- 非活动时段波动:通常检测3-5倍,超过5倍纳入重点排查对象
- 活动时段波动:通常检测10-50倍,超过50倍纳入重点排查对象
- 根据倍数不同,启动不同的排查流程。然后使用黑名单进行防控(运营)
- 实时监控redis命中率(业务正常范围时,通常会有一个波动值)与null数据的占比
- key加密
- 问题出现后,临时启动防灾业务key,对key进行业务层传输加密服务,设定校验程序,过来的key校验
- 例如每天随机分配60个加密串,挑选2到3个,混淆到页面数据id中,发现访问key不满足规则,驳回数据访问
总结
缓存击穿访问了不存在的数据,跳过了合法数据的redis数据缓存阶段,每次访问数据库,导致对数据库服务器造成压力。通常此类数据的出现量是一个较低的值,当出现此类情况以毒攻毒,并及时报警。应对策略应该在临时预案防范方面多做文章。无论是黑名单还是白名单,都是对整体系统的压力,警报解除后尽快移除。
性能指标监控
监控指标
- 性能指标:Performance
- 内存指标:Memory
- 基本活动指标:Basic activity
- 持久性指标:Persistence
- 错误指标:Error
性能指标:Performance
Name | Description |
---|---|
latency | Redis响应一个请求的时间 |
instantaneous_ops_per_sec | 平均每秒处理请求的总数OPS |
hit rate(calculated) | 缓存命中率(计算出来的) |
内存指标:Memory
Name | Description |
---|---|
used_memory | 已使用内存 |
mem_fragmentation | 内存碎片率 |
evicted_keys | 由于最大内存限制被移除的key的数量 |
blocked_clients | 由于BLPOP,BRPOP,or BRPOPLPUSH而被阻塞的客户端 |
基本活动指标:Basic activity
Name | Description |
---|---|
connected_clients | 客户端连接数 |
connected_slaves | Slave数量 |
master_last_io_seconds_ago | 最近一次主从交互之后的秒数 |
keyspace | 数据库中的key值总数 |
持久性指标:Persistence
Name | Description |
---|---|
rdb_last_save_time | 最后一次持久化保存到磁盘的时间戳 |
rdb_changes_since_last_save | 自最后一次持久化以来数据库的更改数 |
错误指标:Error
Name | Description |
---|---|
rejected_connections | 由于达到maxclient限制而被拒绝的连接数 |
keyspace_misses | key值查找失败(没有命中)次数 |
master_link_down_since_seconds | 主从断开的持续时间(单位:秒) |
监控方式
- 工具
- Cloud Insight Redis
- Prometheus
- Redis-stat
- Redis-faina
- RedisLive
- zabbix
- 命令
- benchmark
- redis cli
- monitor
- showlog
benchmark(压测工具,redis自带)
- 命令
redis-benchmark [-h ] [-p ] [-c ] [-n <requests]> [-k ]
- 范例1
redis-benchmark
- 说明:50个连接,10000次请求对应的性能
- 范例2
redis-benchmark -c 100 -n 5000
- 说明:100个连接,5000次请求对应的性能

monitor
- 命令
- monitor
- 打印服务器调试信息
showlong
- 命令
- showlong [operator]
- get :获取慢查询日志
- len :获取慢查询日志条目数
- reset :重置慢查询日志
- showlong [operator]
- 相关配置
- slowlog-log-slower-than 1000 #设置慢查询的时间下线,单位:微妙
- slowlog-max-len 100 #设置慢查询命令对应的日志显示长度,单位:命令数
恶意请求
我们的数据库中的主键都是从0开始的,即使我们将数据库中的所有数据都放到了缓存中。当有人用id=-1来发生恶意请求时,因为redis中没有这个数据,就会直接访问数据库,这就称谓缓存穿透
解决办法
- 在程序中进行数据的合法性检验,如果不合法直接返回。这部分可以在前端限制
- 使用布隆过滤器
布隆过滤器简介
想要尽量避免缓存穿透,一个办法就是对数据进行预校验,在对Redis和数据库进行操作前,先检查数据是否存在,如果不存在就直接返回。如果我们想要查询一个元素是否存在,要保证查询效率,可以选择HashSet,但是如果有10亿个数据,都用HashSet进行存储,内存肯定是无法容纳的。这时就需要布隆过滤器了
布隆过滤器(英语:Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(bit数组)和一系列随机映射函数(hash)。布隆过滤器可以用于检索一个元素是否在一个集合中
因为是基于位数组和hash函数的,所以它的优点是空间效率和查询时间都远远超过一般的算法。但缺点也很明显,那就是有一定的误识别率和删除困难。但是可以通过增加位数组的大小和增加hash函数个数来降低误识别率(只能降低,没法避免)
放入过程
布隆过滤器初始化后,位数组中的值都为0。当一个变量将要放入布隆过滤器时,会通过多个hash函数映射到位数组的各个位上,然后将对应位置为1
查询过程
查询依然是通过多个hash函数映射到位数组的各个位上,如果各个位都为1,说明该元素可能存在,注意是可能存在!!。但是如果通过映射后,位数组对应位上不为1,那么该元素肯定不存在
放入过程图解
比如我们的布隆过滤器位一个8位的位数组,并且有3个hash函数对元素进行计算,映射到数组中的各个位上
我们将字符串”Nyima”放入布隆过滤器中
接下来将字符串”Cpower”放入布隆过滤器中
查询过程图解
比如我们要查询字符串”Cpower”是否存在,通过3个hash函数映射到了位数组的三个位置上, 三个位置都为1,那么该字符串可能存在
比如我们要查询字符串”SWPU”是否存在,通过3个hash函数映射到了位数组的三个位置,发现有一个位置不为1,那么该字符串肯定不存在
比如我们要查询字符串”Hulu”是否存在,通过3个hash函数映射到了位数组的三个位置,发现所有位置都为1,但是我们前面并没有将字符串”Hulu”放入布隆过滤器中,所以这里发生了误判
增加位数组的大小和hash函数个数可以降低误判率,但是无法避免误判
十二、服务器基础配置
服务器端设定
在redis.windows-service.conf
里面配置
- 设置服务器以守护进程的方式运行
daemonize yes|no
- 绑定主机地址
bind 127.0.0.1
- 设置服务器端口号
port 6379
- 设置数据库数量
databases 16
日志配置
- 设置服务器以指定日志记录级别
loglevel debug|verbose|notice|warning
- 日志记录文件名
logfile 端口号.log
- 注意:日志级别开发期设置为verbose即可,生产环境中配置为notice,简化日志输出量,降低写日志IO的频度
客户端配置
- 设置同一时间最大客户端连接数,默认无限制。当客户端连接到达上限,Redis会关闭新的连接
maxclients 0
- 客户端闲置等待最大时长(单位:秒),达到最大值后关闭连接。如需关闭该功能,设置为 0
timeout 300
多服务器快捷配置
- 导入并加载指定配置文件信息(类似import),用于快速创建redis公共配置较多的redis实例配置文件,便于维护
include /path/server-端口号.conf
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~