Redis缓存设计与优化

全文转载自姐夫聊架构-Redis缓存设计与优化

Redis缓存设计与优化

多级缓存架构

img

缓存设计

缓存穿透

缓存穿透 是指查询一个缓存和数据库中都没有的,根本不存在的数据数据,导致所有的请求都落到数据库上,造成数据库短时间内承受大量请求而崩掉

造成缓存穿透的基本原因有两个:

自身业务代码或者数据出现问题。

一些恶意攻击、 爬虫等造成大量空命中。

解决方案

接口层增加校验,如用户鉴权校验,id做基础校验,id<=0的直接拦截

缓存空对象

从缓存取不到的数据,在数据库中也没有取到,这时也可以将键值对写为key-null,缓存有效时间可以设置短点,如30秒(设置太长会导致正常情况也没法使用)。这样可以防止攻击用户反复用同一个id暴力 攻击。

点击查看代码
String get(String key) {
​    // 从缓存中获取数据
​    String cacheValue = cache.get(key);
​    // 缓存为空
​    if (StringUtils.isBlank(cacheValue)) {
​        // 从存储中获取
​        String storageValue = storage.get(key);
​        cache.set(key, storageValue);
​        // 如果存储数据为空, 需要设置一个过期时间(30秒)
​        if (storageValue == null) {
​            cache.expire(key, 30);
​        }
​        return storageValue;
​    } else {
​        // 缓存非空
​        return cacheValue;
​    }
}

布隆过滤器

对于恶意攻击,向服务器请求大量不存在的数据造成的缓存穿透,还可以用布隆过滤器先做一次过滤,对于不存在的数据布隆过滤器一般都能够过滤掉,不让请求再往后端发送。当布隆过滤器说某个值存在时,这个值可能不存在;当它说不存在时,那就肯定不存在。

布隆过滤器(Bloom-Filter)

布隆过滤器是一个大型的位数组和几个不一样的无偏 hash 函数。所谓无偏就是能够把元素的 hash 值算得比较均匀。一般用于在大数据量的集合中判定某元素是否存在。

核心思想:利用多个不同的Hash函数来解决"冲突"。Hash存在一个冲突(碰撞)的问题,用同一个Hash得到的两个URL的值有可能相同。为了减少冲突,我们可以多引入几个Hash,如果通过其中的一个Hash值 我们得出某元素不在集合中,那么该元素肯定不在集合中。只有在所有的Hash函数告诉我们该元素在集合中时,才能确定该元素存在于集合中。

向布隆过滤器中添加 key 时,会使用多个 hash 函数对 key 进行 hash 算得一个整数索引值然后对位数组长度进行取模运算得到一个位置,每个 hash 函数都会算得一个不同的位置。再把位数组的这几个位置都置为 1 就完成了 add 操作。

向布隆过滤器询问 key 是否存在时,跟 add 一样,也会把 hash 的几个位置都算出来,看看位数组中这几个位置是否都为 1,只要有一个位为 0,那么说明布隆过滤器中这个key 不存在。如果都是 1,这并不能说明这个 key 就一定存在,只是极有可能存在,因为这些位被置为 1 可能是因为其它的 key 存在所致。如果这个位数组比较稀疏,这个概率就会很大,如果这个位数组比较拥挤,这个概率就会降低。

这种方法适用于数据命中不高、数据相对固定、实时性低(通常是数据集较大)的应用场景,代码维护较为复杂,但是缓存空间占用很少

使用redisson实现

引入依赖
<dependency>

​    <groupId>org.redisson</groupId>
​    <artifactId>redisson</artifactId>
​    <version>3.6.5</version>
</dependency>
点击查看代码
public class RedissonBloomFilter {
​    public static void main(String[] args) {
​        Config config = new Config();
​        config.useSingleServer().setAddress("redis://192.168.58.3:6379");
​        //构造Redisson
​        RedissonClient redisson = Redisson.create(config);
​        RBloomFilter<String> bloomFilter = redisson.getBloomFilter("nameList");
​        //初始化布隆过滤器:预计元素为100000000L,误差率为3%,根据这两个参数会计算出底层的bit数组大小
​        bloomFilter.tryInit(100000000L, 0.03);
​        //将link插入到布隆过滤器中
​        bloomFilter.add("Link");
​        //判断下面号码是否在布隆过滤器中
​        System.out.println(bloomFilter.contains("Link"));//true
​        System.out.println(bloomFilter.contains("Zelda"));//false
​        System.out.println(bloomFilter.contains("Ganon"));//false
​    }
}

使用布隆过滤器需要把所有数据提前放入布隆过滤器,并且在增加数据时也要往布隆过滤器里放,布隆过滤器缓存过滤伪代码:

点击查看代码
// 初始化布隆过滤器
RBloomFilter<String> bloomFilter = redisson.getBloomFilter("nameList");
// 初始化布隆过滤器:预计元素为100000000L,误差率为3%
bloomFilter.tryInit(100000000L, 0.03);

// 把所有数据存入布隆过滤器
void init(List<String> keys) {
​    for (String key : keys) {
​        bloomFilter.add(key);
​    }
}


String get(String key) {
​    // 从布隆过滤器这一级缓存判断下key是否存在
​    Boolean exist = bloomFilter.contains(key);
​    if(!exist){
​        return "";
​    }

​    // 从缓存中获取数据
​    String cacheValue = cache.get(key);
​    // 缓存为空
​    if (StringUtils.isBlank(cacheValue)) {
​        // 从存储中获取
​        String storageValue = storage.get(key);
​        cache.set(key, storageValue);
​        // 如果存储数据为空, 需要设置一个过期时间(300秒)
​        if (storageValue == null) {
​            cache.expire(key, 60 * 5);
​        }
​        return storageValue;
​    } else {
​        // 缓存非空
​        return cacheValue;
​    }
}

缓存击穿(失效)

缓存击穿是指缓存中没有但数据库中有的数据(一般是缓存时间到期),这时由于并发用户特别多,同时读缓存没读到数据,又同时去数据库去取数据,引起数据库压力瞬间增大,造成过大压力

解决方案

  • 设置热点数据永远不过期。

  • 加互斥锁

缓存雪崩

缓存雪崩是指缓存同一时间大面积的失效,所以,后面的请求都会落到数据库 上,造成数据库短时间内承受大量请求而崩掉。

缓存击穿与雪崩的不同是,缓存击穿指并发查同一条数据,缓存雪崩是不同数据都过期了,很多数据都查不到从而查数据库。

解决方案

缓存数据的过期时间设置随机,防止同一时间大量key过期

点击查看代码
String get(String key) {
​    // 从缓存中获取数据
​    String cacheValue = cache.get(key);
​    // 缓存为空
​    if (StringUtils.isBlank(cacheValue)) {
​        // 从存储中获取
​        String storageValue = storage.get(key);
​        cache.set(key, storageValue);

​        //设置一个过期时间(300到600之间的一个随机数)
​        int expireTime = new Random().nextInt(300)  + 300;
​        if (storageValue == null) {
​            cache.expire(key, expireTime);
​        }
​        return storageValue;
​    } else {
​        // 缓存非空
​        return cacheValue;
​    }
}

保证缓存层服务高可用性,比如使用Redis Sentinel或Redis Cluster。

依赖隔离组件为后端限流熔断并降级。比如使用Sentinel或Hystrix限流降级组件。

比如服务降级,我们可以针对不同的数据采取不同的处理方式。当业务应用访问的是非核心数据(例如电商商品属性,用户信息等)时,暂时停止从缓存中查询这些数据,而是直接返回预定义的默认降级信息、空值或是错误提示信息;当业务应用访问的是核心数据(例如电商商品库存)时,仍然允许查询缓存,如果缓存缺失,也可以继续通过数据库读取。

提前演练。在项目上线前, 演练缓存层宕掉后, 应用以及后端的负载情况以及可能出现的问题, 在此基础上做一些预案设定。

热点缓存key重建优化

同时出现以下两种场景:

缓存中的一个key是热点key(比如秒杀商品),并发量非常大。

重建缓存不能在短时间内完成,可能是一个复杂的计算、复杂的sql、多个IO、多个依赖。

在缓存失效的瞬间有大量线程来重建缓存,造成后端压力过大,甚至可能出现应用崩溃。

解决方案

  • 避免大量线程同时重建缓存
  • 可以利用互斥锁来解决,此方法只允许一个线程重建缓存, 其他线程等待重建缓存的线程执行完, 重新从缓存获取数据即可。
  • 对缓存查询加锁,如果KEY不存在,就加锁,然后查DB入缓存,然后解锁;其 他进程如果发现有锁就等待,然后等解锁后返回数据或者进入DB查询
示例伪代码
String get(String key) {
​    // 从Redis中获取数据
​    String value = redis.get(key);

​    // 如果value为空, 则开始重构缓存
​    if (value == null) {
​        // 只允许一个线程重建缓存, 使用nx, 并设置过期时间ex
​        String mutexKey = "mutext:key:" + key;
​        if (redis.set(mutexKey, "1", "ex 180", "nx")) {
​             // 从数据源获取数据
​            value = db.get(key);
​            // 回写Redis, 并设置过期时间
​            redis.setex(key, timeout, value);
​            // 删除key_mutex
​            redis.delete(mutexKey);

​        }// 其他线程休息50毫秒后重试
​        else {
​            Thread.sleep(50);
​            get(key);
​        }
​    }
​    return value;
}

缓存与数据库双写不一致

在大并发下,同时操作数据库与缓存会存在数据不一致性问题

场景1:双写不一致

一个扣减库存的业务,需要更新数据库然后更新缓存。

正常情况

初始stock=10

线程1, 操作stock-1=9 写库,刷新缓存stock=9

线程2, 操作stock-1=8 写库,刷新缓存stock=8。

问题场景

线程1, 操作stock-1=9 写库,还没运行到刷新缓存

线程2, 操作stock-1=8 写库,刷新缓存stock=8

线程1,刷新缓存,stock=9。

出现了库存超卖

img

场景2:读写并发不一致

写库后删除缓存,下次读取数据库最新的值时刷新缓存。

正常情况:

线程1,写库stock=10,删除缓存

线程2,写库stock=6,删除缓存

线程3,查询缓存为空,查询数据库stock=6,更新缓存。

问题场景:

线程1,写库stock=10,删除缓存

线程3,查询缓存为空,查询数据库stock=10,还没来得及刷缓存

线程2,写库stock=6,删除缓存

线程3,刷新缓存,stock=10

img

解决方案

对于并发几率很小的数据(如个人维度的订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生缓存不一致,可以给缓存数据加上过期时间,每隔一段时间触发读的主动更新即可。

就算并发很高,如果业务上能容忍短时间的缓存数据不一致(如商品名称,商品分类菜单等),缓存加上过期时间依然可以解决大部分业务对于缓存的要求。

如果不能容忍缓存数据不一致,可以通过加读写锁保证并发读写或写写的时候按顺序排好队,读读的时候相当于无锁

用阿里开源的canal通过监听数据库的binlog日志及时的去修改缓存,但是引入了新的中间件,增加了系统的复杂度。

Redis开发规范与性能优化

一、键值设计

1、key名设计

【建议】: 可读性和可管理性

以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,比如业务名:表名:id

trade:order:1

【建议】:简洁性

保证语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视

user:{uid}:friends:messages:{mid} 简化为 u:{uid}🇫🇷m:{mid}

【强制】:不要包含特殊字符

反例:包含空格、换行、单双引号以及其他转义字符

2、value设计

【强制】:拒绝bigkey(防止网卡流量、慢查询)

在Redis中,一个字符串最大512MB,一个二级数据结构(例如hash、list、set、zset)可以存储大约40亿个(2^32-1)个元素,但实际中如果下面两种情况,就会认为它是bigkey:

字符串类型:它的big体现在单个value值很大,一般认为超过10KB就是bigkey。

非字符串类型:哈希、列表、集合、有序集合,它们的big体现在元素个数太多。

一般来说,string类型控制在10KB以内,hash、list、set、zset元素个数不要超过5000。

反例:一个包含200万个元素的list。

非字符串的bigkey,不要使用del删除,使用hscan、sscan、zscan方式渐进式删除,同时要注意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞)

bigkey****的危害:

导致redis阻塞

网络拥塞

bigkey也就意味着每次获取要产生的网络流量较大,假设一个bigkey为1MB,客户端每秒访问量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务器来说简直是灭顶之灾,而且一般服务器会采用单机多实例的方式来部署,也就是说一个bigkey可能会对其他实例也造成影响,其后果不堪设想。

过期删除

有个bigkey,它安分守己(只执行简单的命令,例如hget、lpop、zscore等),但它设置了过期时间,当它过期后,会被删除,如果没有使用Redis 4.0的过期异步删除(lazyfree-lazy-expire yes),就会存在阻塞Redis的可能性。

如何优化bigkey:

big list:list1、list2、...listN

big hash:可以讲数据分段存储,比如一个大的key,假设存了1百万的用户数据,可以拆分成200个key,每个key下面存放5000个用户数据

如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式来处理。

【推荐】:选择适合的数据类型。

例如:实体类型(要合理控制和使用数据结构,但也要注意节省内存和性能之间的平衡)

反例:

set user:1:name tom set user:1:age 19 set user:1:favor football

正例:

【推荐】:控制key的生命周期,redis不是垃圾桶。建议使用expire设置过期时间(条件允许可以打散过期时间,防止集中过期)。

二、命令使用

【推荐】 O(N)命令关注N的数量

例如hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历的需求可以使用hscan、sscan、zscan代替。

【推荐】:禁用命令

禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令,或者使用scan的方式渐进式处理。

【推荐】合理使用select

redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰。

【推荐】使用批量操作提高效率

原生命令:例如mget、mset

非原生命令:可以使用pipeline提高效率

二者不同点:

原生命令是原子操作,pipeline是非原子操作。

pipeline可以打包不同的命令,原生命令做不到。

pipeline需要客户端和服务端同时支持。

要注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)。

【建议】Redis事务功能较弱,不建议过多使用,可以用lua替代

三、客户端使用

【推荐】避免多个应用使用一个Redis实例

正例:不相干的业务拆分,公共数据做服务化。

【推荐】使用带有连接池的数据库,可以有效控制连接,同时提高效率,标准使用方式:

Jedis
JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
jedisPoolConfig.setMaxTotal(5);
jedisPoolConfig.setMaxIdle(2);
jedisPoolConfig.setTestOnBorrow(true);

JedisPool jedisPool = new JedisPool(jedisPoolConfig, "192.168.0.60", 6379, 3000, null);

Jedis jedis = null;
try {
​    jedis = jedisPool.getResource();
​    //具体的命令
​    jedis.executeCommand()
} catch (Exception e) {
​    logger.error("op key {} error: " + e.getMessage(), key, e);
} finally {
​    //注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。
​    if (jedis != null) 
​        jedis.close();
}

连接池参数含义:

优化建议:

序号 参数名 含义 默认值 使用建议
1 maxTotal 资源池中最大连接数 8 设置建议见下面
2 maxIdle 资源池允许最大空闲的连接数 8 设置建议见下面
3 minIdle 资源池确保最少空闲的连接数 0 设置建议见下面
4 blockWhenExhausted 当资源池用尽后,调用者是否要等待。只有当为true时,下面的maxWaitMillis才会生效 true 建议使用默认值
5 maxWaitMillis 当资源池连接用尽后,调用者的最大等待时间(单位为毫秒) -1:表示永不超时 不建议使用默认值
6 testOnBorrow 向资源池借用连接时是否做连接有效性检测(ping),无效连接会被移除 false 业务量很大时候建议设置为false(多一次ping的开销)。
7 testOnReturn 向资源池归还连接时是否做连接有效性检测(ping),无效连接会被移除 false 业务量很大时候建议设置为false(多一次ping的开销)。
8 jmxEnabled 是否开启jmx监控,可用于监控 true 建议开启,但应用本身也要开启
  1. maxTotal:最大连接数,早期的版本叫maxActive
  • 实际上这个是一个很难回答的问题,考虑的因素比较多:

  • 业务希望Redis并发量

  • 客户端执行命令时间

  • Redis资源:例如 nodes(例如应用个数) * maxTotal 是不能超过redis的最大连接数maxclients。

  • 资源开销:例如虽然希望控制空闲连接(连接池此刻可马上使用的连接),但是不希望因为连接池的频繁释放创建连接造成不必靠开销。

以一个例子说明,假设:

一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为1ms,一个连接的QPS大约是1000,业务期望的QPS是50000,那么理论上需要的资源池大小是50000 / 1000 = 50个。但事实上这是个理论值,还要考虑到要比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。但这个值不是越大越好,一方面连接太多占用客户端和服务端资源,另一方面对于Redis这种高QPS的服务器,一个大命令的阻塞即使设置再大资源池仍然会无济于事。

2.maxIdle和minIdle

  • maxIdle实际上才是业务需要的最大连接数,maxTotal是为了给出余量,所以maxIdle不要设置过小,否则会有new Jedis(新连接)开销。

连接池的最佳性能是maxTotal = maxIdle,这样就避免连接池伸缩带来的性能干扰。但是如果并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。一般推荐maxIdle可以设置为按上面的业务期望QPS计算出来的理论连接数,maxTotal可以再放大一倍。

  • minIdle(最小空闲连接数),与其说是最小空闲连接数,不如说是"至少需要保持的空闲连接数",在使用连接的过程中,如果连接数超过了minIdle,那么继续建立连接,如果超过了maxIdle,当超过的连接执行完业务后会慢慢被移出连接池释放掉。

如果系统启动完马上就会有很多的请求过来,那么可以给redis连接池做预热,比如快速的创建一些redis连接,执行简单命令,类似ping(),快速的将连接池里的空闲连接提升到minIdle的数量。

连接池预热示例代码:
List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle());

for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
​    Jedis jedis = null;
​    try {
​        jedis = pool.getResource();
​        minIdleJedisList.add(jedis);
​        jedis.ping();
​    } catch (Exception e) {
​        logger.error(e.getMessage(), e);
​    } finally {
​       //注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。。
​        //jedis.close();

​    }

}

//统一将预热的连接还回连接池

for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
​    Jedis jedis = null;
​    try {
​        jedis = minIdleJedisList.get(i);
​        //将连接归还回连接池
​        jedis.close();
​    } catch (Exception e) {
​        logger.error(e.getMessage(), e);
​    } finally {
​    }

}

总之,要根据实际系统的QPS和调用redis客户端的规模整体评估每个节点所使用的连接池大小。

3.【建议】高并发下建议客户端添加熔断功能(例如sentinel、hystrix)

4.【推荐】设置合理的密码,如有必要可以使用SSL加密访问

5.【建议】Redis对于过期键有三种清除策略:

  • 被动删除:当读/写一个已经过期的key时,会触发惰性删除策略,直接删除掉这个过期key

  • 主动删除:由于惰性删除策略无法保证冷数据被及时删掉,所以Redis会定期主动淘汰一批已过期的key

  • 当前已用内存超过maxmemory限定时,触发主动清理策略

主动清理策略在Redis 4.0 之前一共实现了 6 种内存淘汰策略,在 4.0 之后,又增加了 2 种策略,总共8种:

针对设置了过期时间的key做处理:

volatile-ttl:在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删除,越早过期的越先被删除。

volatile-random:就像它的名称一样,在设置了过期时间的键值对中,进行随机删除。

volatile-lru:会使用 LRU 算法筛选设置了过期时间的键值对删除。

volatile-lfu:会使用 LFU 算法筛选设置了过期时间的键值对删除。

针对所有的key做处理:

allkeys-random:从所有键值对中随机选择并删除数据。

allkeys-lru:使用 LRU 算法在所有数据中进行筛选删除。

allkeys-lfu:使用 LFU 算法在所有数据中进行筛选删除。

不处理:

noeviction:不会剔除任何数据,拒绝所有写入操作并返回客户端错误信息"(error) OOM command not allowed when used memory",此时Redis只响应读操作。

LRU 算法(Least Recently Used,最近最少使用)

淘汰很久没被访问过的数据,以最近一次访问时间作为参考。

LFU 算法(Least Frequently Used,最不经常使用)

淘汰最近一段时间被访问次数最少的数据,以次数作为参考。

当存在热点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下降,缓存污染情况比较严重。这时使用LFU可能更好点。

根据自身业务类型,配置好maxmemory-policy(默认是noeviction),推荐使用volatile-lru。如果不设置最大内存,当 Redis 内存超出物理内存限制时,内存的数据会开始和磁盘产生频繁的交换 (swap),会让 Redis 的性能急剧下降。

当Redis运行在主从模式时,只有主结点才会执行过期删除策略,然后把删除操作「del key」同步到从结点删除数据。

posted @ 2022-09-06 14:56  zomicc  阅读(238)  评论(0编辑  收藏  举报