Redis6笔记

1、NoSQL 数据库简介

1.1 技术的分类

1.2 技术发展

1.3 NoSQL 数据库

1.3.1 NoSQL 数据库概述

  NoSQL(NoSQL = Not Only SQL ),意即“不仅仅是SQL”,泛指非关系型的数据库

  NoSQL 不依赖业务逻辑方式存储,而以简单的key-value模式存储。因此大大的增加了数据库的扩展能力。

  • 不遵循 SQL 标准
  • 不支持 ACID
  • 远超于 SQL 的性能

1.3.2 NoSQL 适用场景

  • 对数据高并发的读写
  • 海量数据的读写
  • 对数据高可扩展性的

1.3.3 NoSQL 不适用场景

  • 需要事务支持
  • 基于sql的结构化查询存储,处理复杂的关系,需要即席查询

 用不着sql的和用了sql也不行的情况,请考虑用NoSql

1.4.4 典型数据库

1.4 行式存储数据库(大数据时代)

1.4.1 行式数据库

1.4.2 列式数据库

(1)Hbase

(2)Cassandra[kəˈsændrə]

1.5 图关系型数据库

1.6 DB-Engines 数据库排名

http://db-engines.com/en/ranking

 

2、Redis5 概述和安装

  • Redis是一个开源key-value 存储系统
  • 和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)
  • 这些数据类型都支持 push/pop、add/remove 及取交集并集和差集及更丰富的操作,这些操作都是原子性
  • 在此基础上,Redis支持各种不同方式的排序
  • 与memcached一样,为了保证效率,数据都是缓存在内存中,区别的是Redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件
  • 并且在此基础上实现了master-slave(主从)同步

2.1 应用场景

2.1.1 配合关系型数据库做高速缓存

  • 分布式架构,做session共享
  • 高频次,热门访问的数据,降低数据库IO

 

2.1.2 多样的数据结构存储持久化数据

2.2 Redis 安装

2.2.1 安装版本

  • 6.2.1 for Linuxredis-6.2.1.tar.gz)
  • 不用考虑在windows环境下对Redis的支持

2.2.2 安装步骤

(1)准备工作:下载安装最新版本的 gcc 编译器

  安装 C 语言的编译环境

CentOS系统
yum install centos-release-scl scl-utils-build
yum install
-y devtoolset-8-toolchain
scl enable devtoolset
-8 bash

Ubuntu系统 apt
-get install gcc
#以上命令如无效,则执行下面的命令后再次执行上面的命令 apt
-get upgrade gcc

  测试 gcc 版本

gcc --version

(2)下载 redis-6.2.1.tar.gz 放到 opt/software

 (3)解压文件到module目录

tar -zxvf redis-6.2.1.tar.gz -C /opt/module/

(4)解压完成后进入目录下再次执行 make 命令(只是编译好)

cd /opt/module/redis-6.2.1

make

  如果没有准备好C语言编译环境,make 会报错—Jemalloc/jemalloc.h:没有那个文件

  解决方案:运行 make distclean

  注意:由于我在准备工作的时候已经准备好了C语言编译环境,所以不存在上面的报错问题

  解决完毕之后再次执行 make 命令(只是编译好),得到以下结果

(5)跳过 make test,继续执行:make install

2.2.3 安装目录:/usr/local/bin

查看默认安装目录:

  redis-benchmark:性能测试工具,可以在自己本子运行,看看自己本子性能如何

  redis-check-aof:修复有问题的AOF文件,rdb和aof后面讲

  redis-check-dump:修复有问题的dump.rdb文件

  redis-sentinel:Redis集群使用

  redis-server:Redis服务器启动命令

  redis-cli:客户端,操作入口

2.2.4 前台启动(不推荐)

redis-server

  前台启动,命令行窗口不能关闭,否则服务器停止

2.2.5 后台启动(推荐)

(1)备份 redis.conf

  复制一份 redis.conf 到其他目录(/etc)

cp  /opt/module/redis-6.2.1/redis.conf  /etc

(2)后台启动设置 daemonize no 改成 yes

  修改 redis.conf文件将里面的daemonize no 改成 yes,让服务在后台启动

cd /etc

vim redis.conf

  保存退出

(3)Redis启动

cd /usr/local/bin/

redis-server /etc/redis.conf 

ps -ef|grep redis

(4)用客户端访问:redis-cli

redis-cli

(5)多个端口可以

redis-cli -p 6379

(6)测试验证

ping

(7)Redis关闭

(a)单实例关闭

  方法一:

redis-cli shutdown

  方法二:也可以进入终端后再关闭

shutdown

  方法三:也可以直接杀进程

kill -9 进程号

(b)多实例关闭

  指定端口关闭

redis-cli -p 6379 shutdown

 2.2.6 Redis 介绍相关知识

 

3、docker安装redis

  关于docker的安装这里我就不再多做介绍了,不清楚的可以看我之前的docker的笔记或者mysql高级的笔记。这里我就只介绍如何使用docker安装redis

3.1 下载 Redis 镜像

3.2 创建 Redis 配置文件

(1)创建挂载目录

  启动前需要先创建Redis外部挂载的配置文件 ( /mydata/redis/conf/redis.conf )
  之所以要先创建 , 是因为Redis本身容器只存在 /etc/redis 目录 , 本身就不创建 redis.conf 文件
  当服务器和容器都不存在 redis.conf 文件时, 执行启动命令的时候 docker 会将 redis.conf 作为目录创建 , 这并不是我们想要的结果 .

#创建目录
mkdir -p /mydata/redis/data
mkdir -p /mydata/redis/conf

# 创建文件
touch /mydata/redis/conf/redis.conf

(2)准备 Redis 配置文件

  因为需要redis的配置文件,这里最好还是去redis的官方去下载一个redis使用里面的配置文件即可

  redis中文官方网站:http://www.redis.cn/download.html

   下载后解压出来:

   这个redis.conf文件就是咱们需要的,为了保险,还是拷贝一下,做个备份。

(3)修改配置文件

  复制修改的配置文件内容到之前新建的 /mydata/redis/conf/redis.conf 文件中

  修改redis.conf配置文件:

  主要配置的如下:

3.3 创建 Redis 容器并启动

docker run \--name redis \
-p 6379:6379 \
--restart unless-stopped \
-v /mydata/redis/data:/data \
-v /mydata/redis/conf/redis.conf:/etc/redis/redis.conf \
-d redis:buster redis-server /etc/redis/redis.conf 

 

3.4 查看 Redis 是否运行

### 查看Docker运行中的容器
docker ps 
docker ps | grep redis

#查看一下日志
docker logs redis

3.5 进入 Redis 容器

### 通过 Docker 命令进入 Redis 容器内部
docker exec -it redis /bin/bash
docker exec -it redis bash
### 进入 Redis 控制台
redis-cli
### 添加一个变量为 key 为 name , value 为 bella 的内容
> set name bella
### 查看 key 为 name 的 value 值
> get name


### 或者也可以直接通过Docker Redis 命令进入Redis控制台 (上面两个命令的结合)
docker exec -it redis redis-cli

分开命令

合并命令

3.6 进入有密码的 Redis 控制台

  如果你设置了密码,需要通过如下命令进入Redis控制台

## 进入Redis容器
docker exec -it redis /bin/bash

## 通过密码进入Redis控制台
redis-cli -h 127.0.0.1 -p 6379 -a 123456

3.7 Redis 可视化工具连接

4、常用五大数据类型

  哪里去获得redis常见数据类型操作命令http://www.redis.cn/commands.html

4.1 Redis键(key)

  keys * 查看当前库所有key (匹配:keys *1)
  exists key 判断某个key是否存在
  type key查看你的key对应的value是什么类型

  del key删除指定的key数据
  unlink key 根据value选择非阻塞删除,仅将keys从keyspace元数据中删除,真正的删除会在后续异步操作

  expire key 10 10秒钟,为给定的key设置过期时间
  ttl key 查看还有多少秒过期,-1表示永不过期,-2表示已过期

  select 命令切换数据库
  dbsize 查看当前数据库的key的数量
  flushdb 清空当前库
  flushall 通杀全部库

4.2 Redis 字符串(String)

4.2.1 简介

  • String 是 Redis 最基本的类型,你可以理解成与Memcached一模一样的类型,一个key对应一个value
  • String 类型是二进制安全的。意味着 Redis 的string可以包含任何数据。比如jpg图片或者序列化的对象
  • String 类型是Redis最基本的数据类型,一个 Redis 中字符串value最多可以是512M

4.2.2 常用命令

set <key> <value> 添加或者修改键值对
setnx <key> <value> 只有在 key 不存在时,设置 key value 的值

get <key> 查询对应键值
append <key> <value> 将给定的<value> 追加到原值的末尾拼成字符串

strlen <key> 获得值的长度

incr <key> 将 key 中储存的数字值增1,只能对数字值操作,如果为空,新增值为1
decr <key> 将 key 中储存的数字值减1,只能对数字值操作,如果为空,新增值为-1

incrby / decrby <key> <步长> 将 key 中储存的数字值增减,自定义步长

mset <key1> <value1> <key2> <value2>... 同时设置一个或多个 key-value对  
mget <key1> <key2> <key3>... 同时获取一个或多个 value

msetnx <key1> <value1> <key2> <value2> .....同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在才成功,否则都失败,原子性

getrange <key> <起始位置> <结束位置>
获得值的范围,类似java中的substring,前包,后包
setrange <key> <起始位置> <value> 用 <value> 覆写<key>所储存的字符串值,从<起始位置>开始(索引从0开始)

 关于原子性:

所谓原子操作是指不会被线程调度机制打断的操作

这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)

  • 在单线程中, 能够在单条指令中完成的操作都可以认为是"原子操作",因为中断只能发生于指令之间
  • 在多线程中,不能被其它进程(线程)打断的操作就叫原子操作

Redis单命令的原子性主要得益于Redis的单线程

4.2.3 数据结构

String的数据结构为简单动态字符串(Simple Dynamic String,缩写SDS)。是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配

  如图中所示,内部为当前字符串实际分配的空间 capacity,一般要高于实际字符串长度len

  当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间

  需要注意的是字符串最大长度为512M

4.3 Redis 列表(List)

4.3.1 简介

  单键多值

  Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。

  它的底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差。

 4.3.2 常用命令

lpush/rpush <key> <value1> <value2> <value3>...    从左边/右边插入一个或多个值

lpop/rpop <key>
从左边/右边弹出一个值。值在键在,值光键亡
rpoplpush <key1> <key2> 从<key1> 列表右边弹出一个值,插到<key2>列表左边

lrange <key> <start> <stop> 按照索引下标读取元素(从左到右)

lrange mylist 0 -1 0左边第一个,-1右边第一个,(0 -1表示获取所有)

lindex <key> <index>
按照索引下标获得元素(从左到右)

llen <key> 获得列表长度 

linsert <key> before/after <value> <newvalue> 在<value>的后面插入<newvalue>插入值

lrem <key> <n> <value> 从左边删除n个value(从左到右)

lset <key> <index> <value> 将列表key下标为index的值替换成value

4.3.3  数据结构

List 的数据结构为快速链表 quickList

  • 首先在列表元素较少的情况下会使用一块连续的内存存储,这个结构是 ziplist,也即是压缩列表,它将所有的元素紧挨着一起存储,分配的是一块连续的内存

 

  • 当数据量比较多的时候才会改成quicklist

   因为普通的链表需要的附加指针空间太大,会比较浪费空间。比如这个列表里存的只是int类型的数据,结构上还需要两个额外的指针prev和next。

  • Redis 将链表和 ziplist 结合起来组成了quicklist。也就是将多个ziplist使用双向指针串起来使用。这样既满足了快速的插入删除性能,又不会出现太大的空间冗余。

4.4 Redis 集合(Set)

4.4.1 简介

  Redis set对外提供的功能与list类似是一个列表的功能,特殊之处在于set是可以自动排重的,当你需要存储一个列表数据,又不希望出现重复数据时,set是一个很好的选择,并且set提供了判断某个成员是否在一个set集合内的重要接口,这个也是list所不能提供的。

  Redis 的Set是string类型的无序集合它底层其实是一个value为null的hash表,所以添加,删除,查找的一个算法,随着数据的增加,执行时间的长短,如果是O(1),数据增加,查找数据的时间不变

4.4.2 常用命令

sadd <key> <value1> <value2>...将一个或多个 member 元素加入到集合 key 中,已经存在的 member 元素将被忽略

smembers <key>
取出该集合的所有值

sismember <key> <value>
判断集合<key>是否为含有该<value>值,有1,没有0

scard <key> 返回该集合的元素个数

srem <key> <value1> <value2>...
删除集合中的某个元素

spop <key> 随机从该集合中吐出一个值

srandmember <key> <n> 随机从该集合中取出n个值。不会从集合中删除

smove <source> <destination> value 把集合中一个值从一个集合移动到另一个集合

sinter <key1> <key2> 返回两个集合的交集元素

sunion <key1> <key2> 返回两个集合的并集元素

sdiff <key1> <key2> 返回两个集合的差集元素(key1中的,不包含key2中的)

4.4.3 数据结构

   Set 数据结构是 dict 字典,字典是用哈希表实现的

  Java 中 HashSet 的内部实现使用的是 HashMap,只不过所有的value都指向同一个对象

  Redis 的 set 结构也是一样,它的内部也使用 hash 结构,所有的value都指向同一个内部值

4.5 Redis 哈希(Hash) 

4.5.1 简介

  Redis hash 是一个键值对集合

  Redis hash是一个string类型的fieldvalue的映射表,hash特别适合用于存储对象

  类似 Java 里面的 Map<String, Object>

  用户ID为查找的key,存储的value用户对象包含姓名,年龄,生日等信息,如果用普通的key/value结构来存储

  主要有以下2种存储方式:

4.5.2 常用命令 

hset <key> <field> <value>  给<key>集合中的 <field>键赋值<value>

hget <key1> <field> 从<key1>集合<field>取出 value 

hmset <key1><field1><value1><field2><value2>... 批量设置hash的值

hexists<key1><field>
查看哈希表 key 中,给定域 field 是否存在。 

hkeys <key> 列出该hash集合的所有field

hvals <key>
列出该hash集合的所有value

hincrby <key><field><increment> 为哈希表 key 中的域 field 的值加上增量

hsetnx <key><field><value> 将哈希表 key 中的域 field 的值设置为 value ,当且仅当域 field 不存在 .

4.5.3 数据结构

  Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。当field-value长度较短且个数较少时,使用 ziplist,否则使用 hashtable。

4.6.1 Redis 有序集合 zset(sorted set)

4.6.1 简介

  Redis有序集合zset与普通集合set非常相似,是一个没有重复元素的字符串集合

  不同之处是有序集合的每个成员都关联了一个评分(score),这个评分被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的,但是评分可以是重复了 

  因为元素是有序的,所以你也可以很快的根据评分(score)或者次序(position)来获取一个范围的元素

  访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表

4.6.2 常用命令

zadd <key> <score1> <value1> <score2> <value2>… 将一个或多个 member 元素及其 score 值加入到有序集 key 当中。

zrange <key> <start> <stop> [WITHSCORES]
返回有序集 key 中,在<start><stop>之间的元素带WITHSCORES,可以让分数一起和值返回到结果集

zrangebyscore key
min max [withscores] [limit offset count]
返回有序集 key 中,所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列。

zrevrangebyscore key max min [withscores] [limit offset count]  同上,改为从大到小排列。

zincrby <key> <increment> <value> 为元素的score加上增量

zrem <key> <value>
删除该集合下,指定值的元素

zcount <key> <min> <max>
统计该集合,分数区间内的元素个数 

zrank <key> <value> 返回该值在集合中的排名,从0开始。

4.6.3 数据结构

  SortedSet(zset)是Redis 提供的一个非常特别的数据结构,一方面它等价于Java的数据结构Map<String, Double>,可以给每一个元素value赋予一个权重score,另一方面它又类似于TreeSet,内部的元素会按照权重score进行排序,可以得到每个元素的名次,还可以通过score的范围来获取元素的列表。

  zset底层使用了两个数据结构

  1. hash,hash的作用就是关联元素value和权重score,保障元素value的唯一性,可以通过元素value找到相应的score值
  2. 跳跃表,跳跃表的目的在于给元素value排序,根据score的范围获取元素列表

4.6.4 跳跃表(跳表)

(1)简介

  有序集合在生活中比较常见,例如根据成绩对学生排名,根据得分对玩家排名等。对于有序集合的底层实现,可以用数组、平衡树、链表等。数组不便元素的插入、删除;平衡树或红黑树虽然效率高但结构复杂;链表查询需要遍历所有效率低。Redis采用的是跳跃表。跳跃表效率堪比红黑树,实现远比红黑树简单。

(2)实例

  对比有序链表和跳跃表,从链表中查询出51

 (a)有序链表

  要查找值为51的元素,需要从第一个元素开始依次查找、比较才能找到。共需要6次比较。

(b)跳跃表

  从第2层开始,1节点比51节点小,向后比较。

  21节点比51节点小,继续向后比较,后面就是NULL了,所以从21节点向下到第1

  在第1层,41节点比51节点小,继续向后,61节点比51节点大,所以从41向下

  在第0层,51节点为要查找的节点,节点被找到,共查找4次。

从此可以看出跳跃表比有序链表效率要高

 

5、Redis6 配置文件详解

  自定义目录:/etc/redis.conf

5.1 Units单位

  配置大小单位,开头定义了一些基本的度量单位,只支持bytes,不支持bit

  大小写不敏感

5.2 INCLUDES包含

  类似jsp中的include,多实例的情况可以把公用的配置文件提取出来

5.3 网络相关配置

5.3.1 bind

  默认情况 bind=127.0.0.1 只能接受本机的访问请求

  不写的情况下,无限制接受任何ip地址的访问

  生产环境肯定要写你应用服务器的地址;服务器是需要远程访问的,所以需要将其注释掉

  如果开启了protected-mode yes,那么在没有设定bind ip且没有设密码的情况下,Redis只允许接受本机的响应,改为 protected-mode no

  保存配置,停止服务,重启启动查看进程,不再是本机访问了。

5.3.2  protected-mode

  将本机访问保护模式设置no

5.3.3 Port

  端口号,默认 6379

5.3.4  tcp-backlog

  设置tcpbacklogbacklog其实是一个连接队列,backlog队列总和=未完成三次握手队列 + 已经完成三次握手队列。

  在高并发环境下你需要一个高backlog值来避免慢客户端连接问题。

  注意Linux内核会将这个值减小到/proc/sys/net/core/somaxconn的值(128),所以需要确认增大/proc/sys/net/core/somaxconn和/proc/sys/net/ipv4/tcp_max_syn_backlog128)两个值来达到想要的效果

5.3.5  timeout

  一个空闲的客户端维持多少秒会关闭,0表示关闭该功能。即永不关闭。

5.3.6 tcp-keepalive

  对访问客户端的一种心跳检测,每个n秒检测一次。

  单位为秒,如果设置为0,则不会进行Keepalive检测,建议设置成60 

5.4 通用

5.4.1  daemonize

  是否为后台进程,设置为yes

  守护进程,后台启动

5.4.2 pidfile

  存放pid文件的位置,每个实例会产生一个不同的pid文件

5.4.3  loglevel 

  指定日志记录级别,Redis总共支持四个级别:debugverbosenoticewarning,默认为notice

  四个级别根据使用阶段来选择,生产环境选择notice 或者warning

5.4.4  logfile 

  日志文件名称

5.4.5 databases 16

  设定库的数量 默认16默认数据库为0,可以使用SELECT <dbid>命令在连接上指定数据库id

5.5 SECURITY安全

5.5.1 设置密码

  访问密码的查看、设置和取消

  在命令中设置密码只是临时的重启redis服务器密码就还原了

  永久设置需要再配置文件中进行设置

5.6  LIMITS限制

5.6.1 maxclients

  • 设置redis同时可以与多少个客户端进行连接
  • 默认情况下为10000个客户端
  • 如果达到了此限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应

 

5.6.2  maxmemory 

  • 建议必须设置,否则,将内存占满,造成服务器宕机
  • 设置 redis 可以使用的内存量。一旦到达内存使用上限,redis 将会试图移除内部数据,移除规则可以通过maxmemory-policy 来指定。
  • 如果redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。
  • 但是对于无内存申请的指令,仍然会正常响应,比如GET等。如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素。

 

5.6.3  maxmemory-policy

  • volatile-lru:使用LRU算法移除key,只对设置了过期时间的键;(最近最少使用)
  • allkeys-lru:在所有集合key中,使用LRU算法移除key
  • volatile-random:在过期集合中移除随机的key,只对设置了过期时间的键
  • allkeys-random:在所有集合key中,移除随机的key
  • volatile-ttl:移除那些TTL值最小的key,即那些最近要过期的key
  • noeviction:不进行移除。针对写操作,只是返回错误信息

5.6.4  maxmemory-samples

  • 设置样本数量,LRU算法和最小TTL算法都并非是精确的算法,而是估算值,所以你可以设置样本的大小,redis默认会检查这么多个key并选择其中LRU的那个。
  • 一般设置3到7的数字,数值越小样本越不准确,但性能消耗越

 

6、Redis 的发布和订阅

6.1 什么是发布和订阅

  Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。

  Redis 客户端可以订阅任意数量的频道。

6.2 Redis 的发布和订阅

6.3 发布订阅命令行实现

(1)打开一个客户端订阅channel1

subscribe channel1

(2) 打开另一个客户端,给channel1发布消息hello

publish channel1 hello

  返回的1是订阅者数量

(3)打开第一个客户端可以看到发送的消息

  注:发布的消息没有持久化,如果在订阅的客户端收不到hello,只能收到订阅后发布的消息

 

7、Redis 新数据类型

7.1 Bitmaps

7.1.1 简介

  现代计算机用二进制(位)作为信息的基础单位, 1个字节等于8位, 例如"abc"字符串是由3个字节组成, 但实际在计算机存储时将其用二进制表示, “abc”分别对应的ASCII码分别是97、 98、 99, 对应的二进制分别是01100001、 01100010和01100011,如下图

合理地使用操作位能够有效地提高内存使用率和开发效率,Redis 提供了Bitmaps这个“数据类型”可以实现对位的操作

  1. Bitmaps本身不是一种数据类型, 实际上它就是字符串(key-value) , 但是它可以对字符串的位进行操作
  2. Bitmaps单独提供了一套命令, 所以在Redis中使用Bitmaps和使用字符串的方法不太相同。 可以把Bitmaps想象成一个以位为单位的数组, 数组的每个单元只能存储0和1, 数组的下标在Bitmaps中叫做偏移量

7.1.2 命令

1、setbit

 (1)格式

setbit<key><offset><value>   设置Bitmaps中某个偏移量的值(0或1)

*offset:偏移量从0开始

(2)实例

  每个独立用户是否访问过网站存放在Bitmaps中, 将访问的用户记做1, 没有访问的用户记做0, 用偏移量作为用户的id

  设置键的第offset个位的值(从0算起) , 假设现在有20个用户,userid=16111519的用户对网站进行了访问, 那么当前Bitmaps初始化结果如图

 

  unique:users:20201106代表2020-11-06这天的独立访问用户的Bitmaps

  很多应用的用户 id 以一个指定数字(例如10000) 开头, 直接将用户id和Bitmaps的偏移量对应势必会造成一定的浪费, 通常的做法是每次做setbit操作时将用户id减去这个指定数字。

  在第一次初始化Bitmaps时, 假如偏移量非常大, 那么整个初始化过程执行会比较慢, 可能会造成Redis的阻塞。

2、getbit

(1)格式

getbit<key><offset>  获取Bitmaps中某个偏移量的值

  获取键的第offset位的值(从0开始算)

(2)实例

  获取id=8的用户是否在2020-11-06这天访问过, 返回0说明没有访问过:

  注:因为100根本不存在,所以也是返回0

3、bitcount

  统计字符串被设置为1bit一般情况下,给定的整个字符串都会被进行计数,通过指定额外的 start end 参数,可以让计数只在特定的位上进行。start end 参数的设置,都可以使用负数值:比如 -1 表示最后一个位,而 -2 表示倒数第二个位,startend 是指bit组的字节的下标数,二者皆包含。

(1)格式

bitcount<key>[start end]  统计字符串从start字节到end字节比特值为1的数量

(2)实例

  计算2022-11-06这天的独立访问用户数量

  startend代表起始和结束字节数, 下面操作计算用户id在第1个字节到第3个字节之间的独立访问用户数, 对应的用户id111519

举例: K1 【01000001 01000000  00000000 00100001】,对应【0123】
bitcount K1 1 2  : 统计下标1、2字节组中bit=1的个数,即01000000  00000000
--》bitcount K1 1 2   --》1

bitcount K1 1 3  : 统计下标1、3字节组中bit=1的个数,即01000000  00000000 00100001
--》bitcount K1 1 3  --》3

bitcount K1 0 -2  : 统计下标0到下标倒数第2,字节组中bit=1的个数,即01000001  01000000   00000000
--》bitcount K1 0 -2  --》3

  注意:redissetbit设置或清除的是bit位置,而bitcount计算的是byte位置。

4、bitop

(1)格式

bitop  and(or/not/xor) <destkey> [key…]

  bitop是一个复合操作, 它可以做多个Bitmapsand(交集) 、 or(并集) 、 not(非) 、 xor(异或) 操作并将结果保存在destkey中。

(2)实例

  2020-11-04 日访问网站的userid=1,2,5,9

setbit unique:users:20201104 1 1
setbit unique:users:20201104 2 1
setbit unique:users:20201104 5 1
setbit unique:users:20201104 9 1

  2020-11-03 日访问网站的userid=0,1,4,9。

setbit unique:users:20201103 0 1
setbit unique:users:20201103 1 1
setbit unique:users:20201103 4 1
setbit unique:users:20201103 9 1

  计算出两天都访问过网站的用户数量

bitop and unique:users:and:20201104_03 unique:users:20201103unique:users:20201104

  计算出任意一天都访问过网站的用户数量(例如月活跃就是类似这种) , 可以使用or求并集

7.1.3 Bitmaps与set对比

  假设网站有1亿用户, 每天独立访问的用户有5千万, 如果每天用集合类型和Bitmaps分别存储活跃用户可以得到表

  但Bitmaps并不是万金油, 假如该网站每天的独立访问用户很少, 例如只有10万(大量的僵尸用户) , 那么两者的对比如下表所示, 很显然, 这时候使用Bitmaps就不太合适了, 因为基本上大部分位都是0

7.2  HyperLogLog

7.2.1 简介

  在工作当中,我们经常会遇到与统计相关的功能需求,比如统计网站PVPageView页面访问量),可以使用Redisincrincrby轻松实现。

  但像UVUniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决?这种求集合中不重复元素个数的问题称为基数问题。

  解决基数问题有很多种方案:

  (1)数据存储在MySQL表中,使用distinct count计算不重复个数

  (2)使用Redis提供的hashsetbitmaps等数据结构来处理

  以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。

  能否能够降低一定的精度来平衡存储空间?Redis推出了HyperLogLog

  Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。

Redis 里面,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。

  但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。

  什么是基数?

  比如数据集 {1, 3, 5, 7, 5, 7, 8}, 那么这个数据集的基数集为 {1, 3, 5 ,7, 8}, 基数(不重复元素)5。 基数估计就是在误差可接受的范围内,快速计算基数。

7.2.2 命令

1pfadd

(1)格式

pfadd <key>< element> [element ...]   添加指定元素到 HyperLogLog 中

(2)实例

  将所有元素添加到指定HyperLogLog数据结构中。如果执行命令后HLL估计的近似基数发生变化,则返回1,否则返回0

 2、pfcount

(1)格式

pfcount<key> [key ...] 计算HLL的近似基数,可以计算多个HLL,比如用HLL存储每天的UV,计算一周的UV可以使用7天的UV合并计算即可

 (2)实例

3、pfmerge

(1)格式

  pfmerge<destkey><sourcekey> [sourcekey ...]  将一个或多个HLL合并后的结果存储在另一个HLL中,比如每月活跃用户可以使用每天的活跃用户来合并计算可得

(2)实例

7.3 Geospatial

7.3.1 简介

  Redis 3.2 中增加了对GEO类型的支持。GEOGeographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。

7.3.2 命令

1、geoadd

(1)格式

geoadd<key>< longitude><latitude><member> [longitude latitude member...]   添加地理位置(经度,纬度,名称)

(2)实例

geoadd china:city 121.47 31.23 shanghai
geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen 116.38 39.90 beijing

  两极无法直接添加,一般会下载城市数据,直接通过 Java 程序一次性导入。

  有效的经度从 -180 度到 180 度。有效的纬度从 -85.05112878 度到 85.05112878 度。

  当坐标位置超出指定范围时,该命令将会返回一个错误。

  已经添加的数据,是无法再次往里面添加的。

2、geopos  

(1)格式

geopos  <key><member> [member...]  获得指定地区的坐标值

(2)实例

 

3、geodist

(1)格式

geodist<key><member1><member2>  [m|km|ft|mi ]  获取两个位置之间的直线距离

(2)实例 

  获取两个位置之间的直线距离

  单位:

  m 表示单位为米[默认值]

  km 表示单位为千米。

  mi 表示单位为英里。

  ft 表示单位为英尺。

  如果用户没有显式地指定单位参数, 那么 GEODIST 默认使用米作为单位

4、georadius

(1)格式

georadius<key>< longitude><latitude>radius  m|km|ft|mi   以给定的经纬度为中心,找出某一半径内的元素

经度 纬度 距离 单位

(2)实例

 

8、Redis Jedis 测试

8.1 Jedis 所需要的的 jar 包

<dependency>
      <groupId>redis.clients</groupId>
      <artifactId>jedis</artifactId>
      <version>3.2.0</version>
</dependency>
<dependency>     <groupId>junit</groupId> <artifactId>junit</artifactId> <version>4.12</version> <scope>compile</scope>
</dependency>

8.2 连接 Redis 注意事项

禁用Linux的防火墙
redis.conf 中注释掉 bind 127.0.0.1 , 设置 protected-mode no
Linux(CentOS7)里执行命令
systemctl stop firewalld.service
systemctl disable firewalld.service
ubuntu
ufw status        查看防火墙
ufw disable        关闭防火墙
ufw enable        开启防火墙
ufw allow 6379    开放6379端口

8.3 Jedis 常用操作

8.3.1 创建动态的工程

8.3.2 创建测试程序

package com.atguigu.jedis;

import redis.clients.jedis.Jedis;

public class JedisDemo1 {

    public static void main(String[] args) {
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.184.204", 6379);

        //测试
        String value = jedis.ping();
        System.out.println(value);
    }
}

8.4 测试相关数据类型

8.4.1 Jedis-API:Key

   //操作key
    @Test
    public void demo1(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.184.204", 6379);

        jedis.set("k1","v1");
        jedis.set("k2","v2");
        jedis.set("k3","v3");

        Set<String> keys = jedis.keys("*");
        System.out.println(keys.size());
        for (String key:keys){
            System.out.println(key);
        }
        System.out.println(jedis.exists("k1"));
        System.out.println(jedis.ttl("k1"));
        System.out.println(jedis.get("k1"));
    }

8.4.2 Jedis-API:String

    //操作String
    @Test
    public void demo2(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.184.204", 6379);

        jedis.mset("str1","v1","str2","v2","str3","v3");
        System.out.println(jedis.mget("str1","str2","str3"));
    }

 

 8.4.3  Jedis-API:List

    //操作List
    @Test
    public void demo3(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.184.204", 6379);

        jedis.lpush("mylist","lucky","marry","jack");
        List<String> list = jedis.lrange("mylist",0,-1);
        for (String element:list){
            System.out.println(element);
        }
    }

8.4.4   Jedis-API:set

    //操作set
    @Test
    public void demo4(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.184.204", 6379);

        jedis.sadd("orders","order01");
        jedis.sadd("orders","order02");
        jedis.sadd("orders","order03");
        jedis.sadd("orders","order04");
        Set<String> smembers = jedis.smembers("orders");
        for (String order:smembers){
            System.out.println(order);
        }
    }

8.4.5  Jedis-API:hash

    //操作hash
    @Test
    public void demo5(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.184.204", 6379);

        jedis.hset("hash1","userName","lisi");
        System.out.println(jedis.hget("hash1","userName"));

        Map<String, String> map = new HashMap<String, String>();
        map.put("telphone","13810169999");
        map.put("address","atguigu");
        map.put("email","abc@163.com");
        jedis.hmset("hash2",map);

        List<String> result = jedis.hmget("hash2","telphone","email");
        for (String element : result){
            System.out.println(element);
        }
    }

8.4.6   Jedis-API:zset

    //操作zset
    @Test
    public void demo6(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.184.204", 6379);

        jedis.zadd("zset01",100d,"z3");
        jedis.zadd("zset01",90d,"l4");
        jedis.zadd("zset01",80d,"w5");
        jedis.zadd("zset01",70d,"z6");

        Set<String> zrange = jedis.zrange("zset01",0,-1);
        for(String e : zrange){
            System.out.println(e);
        }
    }

 

9、Redis Jedis 实例

9.1 完成一个手机验证码功能

要求

    1. 输入手机号,点击发送后随机生成6位数字码,2分钟有效
    2. 输入验证码,点击验证,返回成功或失败
    1. 每个手机号每天只能输入3次
package com.atguigu.jedis;

import redis.clients.jedis.Jedis;

import java.util.Random;

public class PhoneCode {

    public static void main(String[] args) {
        //模拟验证码发送
        verifyCode("18888888888");

        //getRedisCode("18888888888","4444");
    }


    //1、生成6位数字验证码
    public static String getCode(){
        Random random = new Random();
        String code = "";
        for (int i=0; i<6; i++){
            int rand = random.nextInt(10);
            code += rand;
        }
        return code;
    }

    //2、每个手机每天只能发送三次,验证码放到 redis 中,设置过期时间
    public static void verifyCode(String phone){
        //连接redis
        Jedis jedis = new Jedis("192.168.184.204",6379);

        //拼接key
        //手机发送次数key
        String countKey = "Verifycode" + phone + ":count";
        //验证码key
        String codeKey = "Verifycode" + phone + ":code";

        //每个手机每天只能发送三次
        String count = jedis.get(countKey);
        if(count == null){
            //没有发送次数,第一次发送
            //设置发送次数1
            jedis.setex(countKey, 24*60*60, "1");
        }else if(Integer.parseInt(count) <= 2){
            //发送次数+1
            jedis.incr(countKey);
        }else if(Integer.parseInt(count) > 2){
            System.out.println("今天发送次数已经超过三次");
            jedis.close();
            return;
        }
        //发送验证码放到 redis 里面
        String vcode = getCode();
        jedis.setex(codeKey, 120, vcode);
        jedis.close();
    }

    //3、验证码校验
    public static void getRedisCode(String phone, String code){
        //连接redis
        Jedis jedis = new Jedis("192.168.184.204",6379);
        //从redis获取验证码
        //验证码
        String codeKey = "Verifycode" + phone + ":code";
        String redisCode = jedis.get(codeKey);
        //判断
        if(redisCode.equals(code)){
            System.out.println("成功");
        }else{
            System.out.println("失败");
        }
    }

}

 

10、Redis 与 SpringBoot 整合

  Spring Boot整合Redis非常简单,只需要按如下步骤整合即可

10.1 整合步骤

(1)pom.xml文件中引入redis相关依赖

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>2.1.1.RELEASE</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>
    <groupId>com.atguigu</groupId>
    <artifactId>redis_springboot</artifactId>
    <version>0.0.1-SNAPSHOT</version>
    <name>redis_springboot</name>
    <description>Demo project for Spring Boot</description>
    <properties>
        <java.version>1.8</java.version>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>

        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
        </dependency>

        <!-- redis -->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-data-redis</artifactId>
            <version>2.1.1.RELEASE</version>
        </dependency>

        <!-- spring2.X集成redis所需common-pool2-->
        <dependency>
            <groupId>org.apache.commons</groupId>
            <artifactId>commons-pool2</artifactId>
            <version>2.6.0</version>
        </dependency>

    </dependencies>

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
            </plugin>
        </plugins>
    </build>

</project>

(2)application.properties配置redis配置

#Redis服务器地址
spring.redis.host=192.168.184.204
#Redis服务器连接端口
spring.redis.port=6379
#Redis数据库索引(默认为0)
spring.redis.database= 0
#连接超时时间(毫秒)
spring.redis.timeout=1800000
#连接池最大连接数(使用负值表示没有限制)
spring.redis.lettuce.pool.max-active=20
#最大阻塞等待时间(负数表示没限制)
spring.redis.lettuce.pool.max-wait=-1
#连接池中的最大空闲连接
spring.redis.lettuce.pool.max-idle=5
#连接池中的最小空闲连接
spring.redis.lettuce.pool.min-idle=0

(3)添加 redis 配置类

package com.atguigu.redis_springboot.config;

import com.fasterxml.jackson.annotation.JsonAutoDetect;
import com.fasterxml.jackson.annotation.PropertyAccessor;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.springframework.cache.CacheManager;
import org.springframework.cache.annotation.CachingConfigurerSupport;
import org.springframework.cache.annotation.EnableCaching;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.cache.RedisCacheConfiguration;
import org.springframework.data.redis.cache.RedisCacheManager;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.RedisSerializationContext;
import org.springframework.data.redis.serializer.RedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;
import java.time.Duration;

@EnableCaching
@Configuration
public class RedisConfig extends CachingConfigurerSupport {

    @Bean
    public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
        RedisTemplate<String, Object> template = new RedisTemplate<>();
        RedisSerializer<String> redisSerializer = new StringRedisSerializer();
        Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
        ObjectMapper om = new ObjectMapper();
        om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
        om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
        jackson2JsonRedisSerializer.setObjectMapper(om);
        template.setConnectionFactory(factory);//key序列化方式
        template.setKeySerializer(redisSerializer);//value序列化
        template.setValueSerializer(jackson2JsonRedisSerializer);//value hashmap序列化
        template.setHashValueSerializer(jackson2JsonRedisSerializer);
        return template;
    }

    @Bean
    public CacheManager cacheManager(RedisConnectionFactory factory) {
        RedisSerializer<String> redisSerializer = new StringRedisSerializer();
        Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);//解决查询缓存转换异常的问题
        ObjectMapper om = new ObjectMapper();
        om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
        om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
        jackson2JsonRedisSerializer.setObjectMapper(om);// 配置序列化(解决乱码的问题),过期时间600秒
        RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig()
                .entryTtl(Duration.ofSeconds(600))
                .serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer))
                .serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer))
                .disableCachingNullValues();
        RedisCacheManager cacheManager = RedisCacheManager.builder(factory)
                .cacheDefaults(config)
                .build();
        return cacheManager;
    }
}

(4)测试一下

  RedisTestController中添加测试方法

package com.atguigu.redis_springboot.controller;

import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;

@RestController
@RequestMapping("/redisTest")
public class RedisTestController {

    @Autowired
    private RedisTemplate redisTemplate;


    @GetMapping
    public String testRedis() {
        //设置值到redis
        redisTemplate.opsForValue().set("name","lucy");
        //从redis获取值
        String name = (String)redisTemplate.opsForValue().get("name");
        return name;
    }
}

 

 

11、Redis_事务_锁机制_秒杀

11.1 Redis 的事务定义

  Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

  Redis事务的主要作用就是串联多个命令防止别的命令插队。

11.2 MultiExecdiscard

  从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输入Exec后,Redis会将之前的命令队列中的命令依次执行。

  组队的过程中可以通过discard来放弃组队。  

   案例

 

  组队成功,提交成功

  组队阶段报错,提交失败

  组队成功,提交有成功有失败情况

11.3 事务的错误处理

  组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消。

   如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚。

 

11.4 为什么要做成事务

  想想一个场景:有很多人有你的账户,同时去参加双十一抢购

11.5 事务冲突的问题

11.5.1 例子

  一个请求想给金额减8000

  一个请求想给金额减5000

  一个请求想给金额减1000

11.5.2 悲观锁

   悲观锁(Pessimistic Lock), 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁表锁等,读锁写锁等,都是在做操作之前先上锁。

11.5.3 乐观锁

 

  乐观锁(Optimistic Lock), 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量Redis就是利用这种check-and-set机制实现事务

11.5.4 WATCH key [key ...]

   在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。

   下图一个执行成功,另一个因为被打断失败

11.5.5 unwatch

取消 WATCH 命令对所有 key 的监视

如果在执行 WATCH 命令之后,EXEC 命令或 DISCARD 命令先被执行了的话,那么就不需要再执行UNWATCH 

http://doc.redisfans.com/transaction/exec.html 

11.6 Redis 事务三特性

  • 单独的隔离操作

事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

  • 没有隔离级别的概念

队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行

  • 不保证原子性

事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚 

 

12、Redis_事务_秒杀案例

12.1 解决计数器和人员记录的事务操作

12.2 Redis 事务—秒杀并发模拟

  使用工具ab模拟测试

  CentOS6 默认安装  CentOS7需要手动安装

12.2.1 联网

yum install httpd-tools

12.2.2 无网络

#进入安装目录
cd /run/media/root/CentOS\ 7\ x86_64/Packages/

#顺序安装
apr-1.4.8-3.el7.x86_64.rpm
apr-util-1.5.2-6.el7.x86_64.rpm
httpd-tools-2.4.6-67.el7.centos.x86_64.rpm

 12.2.3 测试及结果

(1)通过 ab 测试

  vim postfile 模拟表单提交参数,以&符号结尾;存放当前目录。

  内容:prodid=0101&

ab -n 2000 -c 200 -k -p ~/postfile -T application/x-www-form-urlencoded http://192.168.110.100:8080/Seckill/doseckill

(2)超卖

12.3 超卖问题

12.4 利用乐观锁淘汰用户,解决超卖问题

  增加乐观锁

//秒杀过程
public static boolean doSecKill(String uid, String prodid) throws IOException {
    // 1 uid和prodid非空判断
    if (uid == null || prodid == null) {
        return false;
    }

    // 2 连接redis
    // Jedis jedis = new Jedis("192.168.199.200",6379);
    // 通过连接池得到jedis对象
    JedisPool jedisPoolInstance = JedisPoolUtil.getJedisPoolInstance();
    Jedis jedis = jedisPoolInstance.getResource();

    // 3 拼接key
    // 3.1 库存key
    String kcKey = "sk:" + prodid + ":qt";
    // 3.2 秒杀成功用户key
    String userKey = "sk:" + prodid + ":user";

    // 监视库存
    jedis.watch(kcKey);

    // 4 获取库存,如果库存null,秒杀还没有开始
    String kc = jedis.get(kcKey);
    if (kc == null) {
        System.out.println("秒杀还没有开始,请等待");
        jedis.close();
        return false;
    }

    // 5 判断用户是否重复秒杀操作
    if (jedis.sismember(userKey, uid)) {
        System.out.println("已经秒杀成功了,不能重复秒杀");
        jedis.close();
        return false;
    }

    // 6 判断如果商品数量,库存数量小于1,秒杀结束
    if (Integer.parseInt(kc) <= 0) {
        System.out.println("秒杀已经结束了");
        jedis.close();
        return false;
    }

    // 7 秒杀过程
    // 使用事务
    Transaction multi = jedis.multi();

    // 组队操作
    multi.decr(kcKey);
    multi.sadd(userKey, uid);

    // 执行
    List<Object> results = multi.exec();

    if (results == null || results.size() == 0) {
        System.out.println("秒杀失败了!!");
        jedis.close();
        return false;
    }

    // 7.1 库存-1
    // jedis.decr(kcKey);
    // 7.2 把秒杀成功用户添加清单里面
    // jedis.sadd(userKey, uid);

    System.out.println("秒杀成功!!!!");
    jedis.close();
    return true;
}

12.5 继续增加并发测试

12.5.1 连接有限制

ab -n 2000 -c 200 -k -p postfile -T 'application/x-www-form-urlencoded' http://192.168.110.100:8080/seckill/doseckill 

 

  增加-r参数,-r   Don't exit on socket receive errors.

   ab -n 2000 -c 100 -r -p postfile -T 'application/x-www-form-urlencoded' http://192.168.110.100:8080/seckill/doseckill

12.5.2 已经秒杀,可是还有库存

  ab -n 2000 -c 100 -p postfile -T 'application/x-www-form-urlencoded' http://192.168.110.100:8080/seckill/doseckill

  已经秒光,可是还有库存。原因,就是乐观锁导致很多请求都失败。先点的没秒到,后点的可能秒到了。

12.5.3 连接超时,通过连接池解决

12.5.4 连接池

  节省每次连接 redis 服务带来的消耗,把连接好的实例反复利用

  通过参数管理连接的行为

代码见项目中

  • 链接池参数
    • MaxTotal:控制一个pool可分配多少个jedis实例,通过pool.getResource()来获取;如果赋值为-1,则表示不限制;如果pool已经分配了MaxTotal个jedis实例,则此时pool的状态为exhausted
    • maxIdle:控制一个pool最多有多少个状态为idle(空闲)的jedis实例
    • MaxWaitMillis:表示当borrow一个jedis实例时,最大的等待毫秒数,如果超过等待时间,则直接抛JedisConnectionException
    • testOnBorrow:获得一个jedis实例的时候是否检查连接可用性(ping());如果为true,则得到的jedis实例均是可用的

12.6 解决库存遗留问题

12.6.1 LUA脚本

 

   Lua 是一个小巧的脚本语言,Lua脚本可以很容易的被C/C++ 代码调用,也可以反过来调用C/C++的函数,Lua并没有提供强大的库,一个完整的Lua解释器不过200k,所以Lua不适合作为开发独立应用程序的语言,而是作为嵌入式脚本语言

  很多应用程序、游戏使用LUA作为自己的嵌入式脚本语言,以此来实现可配置性、可扩展性。

  这其中包括魔兽争霸地图、魔兽世界、博德之门、愤怒的小鸟等众多游戏插件或外挂。

12.6.2 LUA脚本在 Redis 中的优势

  将复杂的或者多步的redis操作,写为一个脚本,一次提交给redis执行,减少反复连接redis的次数,提升性能。

  LUA 脚本是类似 redis 事务,有一定的原子性不会被其他命令插队,可以完成一些redis事务性的操作。

  但是注意redis的lua脚本功能,只有在 Redis 2.6 以上的版本才可以使用。利用lua脚本淘汰用户,解决超卖问题。

  redis 2.6 版本以后,通过lua脚本解决争抢问题,实际上是redis 利用其单线程的特性,用任务队列的方式解决多任务并发问题

12.7 Redis_事务_秒杀案例_代码

12.7.1 项目结构

12.7.2 第一版:简单版

  老师点10次,正常秒杀

  同学一起点试一试,秒杀也是正常的。这是因为还达不到并发的效果。

  使用工具ab模拟并发测试,会出现超卖情况。查看库存会出现负数

12.7.3 第二版:加事务—乐观锁(解决超卖),但出现遗留库存和连接超时

12.7.4 第三版:连接池解决超时问题

12.7.5 第四版:解决库存依赖问题,LUA脚本

local userid=KEYS[1]; 
local prodid=KEYS[2];
local qtkey="sk:"..prodid..":qt";
local usersKey="sk:"..prodid.":usr'; 
local userExists=redis.call("sismember",usersKey,userid);
if tonumber(userExists)==1 then 
  return 2;
end
local num= redis.call("get" ,qtkey);
if tonumber(num)<=0 then 
  return 0; 
else 
  redis.call("decr",qtkey);
  redis.call("sadd",usersKey,userid);
end
return 1;

 

13、Redis 持久化之 RDB

13.1 总体介绍

  官网介绍:http://www.redis.io

  Redis 提供了2个不同形式的持久化方式

    • RDB(Redis DataBase)
    • AOF(Append Of File)

13.2 RDB(Redis DataBase)

13.2.1 官网介绍

13.2.2 是什么

  在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里

13.2.3 备份是如何执行的

  Redis会单独创建一个子进程(fork)来进行持久化

  先将数据写入到 一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件

    • 整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能 如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效
    •  RDB的缺点是最后一次持久化后的数据可能丢失

13.2.4 Fork

    • Fork的作用是复制一个与当前进程一样的进程,新进程的所有数据(变量、环境变量、程序计数器等) 数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程
    • 在Linux程序中,fork()会产生一个和父进程完全相同的子进程,但子进程在此后多会exec系统调用,出于效率考虑,Linux中引入了“写时复制技术
    • 一般情况父进程和子进程会共用同一段物理内存,只有进程空间的各段的内容要发生变化时,才会将父进程的内容复制一份给子进程

13.2.5 RDB 持久化流程

13.2.6 dump.rdb 文件

  在redis.conf中配置文件名称,默认为dump.rdb

13.2.7 配置位置

  rdb文件的保存路径,也可以修改。默认为Redis启动时命令行所在的目录下

  dir "/myredis/"

13.2.8  rdb 的备份和恢复

(1)备份

    1. 先通过 config get dir 查询rdb文件的目录
    2. 将 *.rdb 的文件拷贝到别的地方

(2)恢复

    1. 关闭 Redis
    2. 先把备份的文件拷贝到工作目录下 cp dump2.rdb dump.rdb
    3. 启动Redis,备份数据会直接加载

13.2.9 优势

    • 适合大规模的数据恢复
    • 对数据完整性和一致性要求不高更适合使用
    • 节省磁盘空间
    • 恢复速度快

13.2.10 劣势

    • Fork 的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑
    • 虽然 Redis 在 fork 时使用了写时复制技术,但是如果数据庞大时还是比较消耗性能
    • 在备份周期在一定间隔时间做一次备份,所以如果 Redis 意外 down 掉的话,就会丢失最后一次快照后的所有修改

13.2.11 如何停止

  动态停止RDB:redis-cli config set save ""#save后给空值,表示禁用保存策略

13.2.12 总结

 

14、Redis 持久化之 AOF

14.1 AOF(Append Only File)

14.1.1 是什么

  以日志的形式来记录每个写操作(增量保存),将 Redis 执行过的所有写指令记录下来(读操作不记录), 只许追加文件但不可以改写文件,redis 启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作

14.1.2 AOF持久化流程

    1. 客户端的请求写命令会被append追加到AOF缓冲区内
    2. AOF缓冲区根据AOF持久化策略 [always, everysec, no] 将操作sync同步到磁盘的AOF文件中
    3. AOF文件大小超过重写策略或手动重写时,会对AOF文件 rewrite 重写,压缩AOF文件容量
    4. Redis 服务重启时,会重新load加载AOF文件中的写操作达到数据恢复的目的 

14.1.3 AOF默认不开启

AOF默认不开启,appendonly no,改为 yes 开启

可以在redis.conf中配置文件名称,默认为 appendonly.aof

AOF文件的保存路径,同 RDB 的路径一致

14.1.4 AOF 和 RDB 同时开启,redis 听谁的?

AOF 和 RDB 同时开启,系统默认取 AOF 的数据(数据不会存在丢失)

14.1.5 AOF启动/修复/恢复

  • AOF的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样,都是拷贝备份文件,需要恢复时再拷贝到Redis工作目录下,启动系统即加载
  • 正常恢复
    • 修改默认的appendonly no,改为 yes
    • 将有数据的aof文件复制一份保存到对应目录(查看目录:config get dir
    • 恢复:重启redis然后重新加载
  • 异常恢复
    • 修改默认的appendonly no,改为yes
    • 如遇到AOF文件损坏,客户端连接会被拒绝,通过/usr/local/bin/redis-check-aof--fix appendonly.aof进行恢复
    • 备份被写坏的AOF文件
    • 恢复:重启redis,然后重新加载

14.1.6 AOF 同步频率设置

appendfsync always

始终同步,每次Redis的写入都会立刻记入日志,性能较差但数据完整性比较好

appendfsync everysec

每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失

appendfsync no

redis 不主动进行同步,把同步时机交给操作系统

14.1.7 Rewrite 压缩

  1. 是什么

AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制, 当AOF文件的大小超过所设定的阈值时,Redis 就会启动AOF文件的内容压缩, 只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof

  1. 重写原理,如何实现重写

AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename)

redis4.0版本后的重写,是指上就是把rdb 的快照,以二级制的形式附在新的aof头部,作为已有的历史数据,替换掉原来的流水账操作

no-appendfsync-on-rewrite

如果 no-appendfsync-on-rewrite=yes,不写入aof文件只写入缓存,用户请求不会阻塞,但是在这段时间如果宕机会丢失这段时间的缓存数据。(降低数据安全性,提高性能)

如果 no-appendfsync-on-rewrite=no, 还是会把数据往磁盘里刷,但是遇到重写操作,可能会发生阻塞(数据安全,但是性能降低)

触发机制,何时压缩

Redis 会记录上次重写时的 AOF 大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发

重写虽然可以节约大量磁盘空间,减少恢复时间。但是每次重写还是有一定的负担的,因此设定Redis要满足一定条件才会进行重写

auto-aof-rewrite-percentage:设置重写的基准值,文件达到100%时开始重写(文件是原来重写后文件的2倍时触发)

auto-aof-rewrite-min-size:设置重写的基准值,最小文件64MB。达到这个值开始重写

例如:文件达到70MB开始重写,降到50MB,下次什么时候开始重写?100MB

系统载入时或者上次重写完毕时,Redis会记录此时AOF大小,设为base_size,

如果Redis的AOF当前大小>= base_size +base_size*100% (默认)且当前大小>=64mb(默认)的情况下,Redis会对AOF进行重写

  1. 重写流程
    1. bgrewriteaof 触发重写,判断是否当前有 bgsave bgrewriteaof 在运行,如果有,则等待该命令结束后再继续执行
    2. 主进程fork出子进程执行重写操作,保证主进程不会阻塞
    1. 子进程遍历redis内存中数据到临时文件,客户端的写请求同时写入aof_buf缓冲区和aof_rewrite_buf重写缓冲区保证原AOF文件完整以及新AOF文件生成期间的新的数据修改动作不会丢失。
    2. 1).子进程写完新的AOF文件后,向主进程发信号,父进程更新统计信息。2).主进程把aof_rewrite_buf中的数据写入到新的AOF文件
    1. 使用新的AOF文件覆盖旧的AOF文件,完成AOF重写

14.1.8 优势

  n 备份机制更稳健,丢失数据概率更低。

  n 可读的日志文本,通过操作AOF稳健,可以处理误操作。

14.1.9 劣势

比起RDB占用更多的磁盘空间。

恢复备份速度要慢。

每次读写都同步的话,有一定的性能压力。

存在个别Bug,造成恢复不能。

 14.1.10 总结

 

14.2 总结(which one)

14.2.1 用哪个好

官方推荐两个都启用

如果对数据不敏感,可以选单独用RDB

不建议单独用 AOF,因为可能会出现Bug

如果只是做纯内存缓存,可以都不用

14.2.2  官网建议

  • RDB 持久化方式能够在指定的时间间隔对你的数据进行快照存储
  • AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候,会重新执行这些命令来恢复原始的数据,AOF命令以redis协议追加保存每次写的操作到文件末尾
  • Redis 还能对 AOF 文件进行后台重写,使得AOF文件的体积不至于过大
  • 只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式
  • 同时开启两种持久化方式
    • 在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整
    • RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢?
    • 建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份), 快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段
  • 性能建议 

 

 

15、Redis_主从复制

15.1 是什么

  主机数据更新后根据配置和策略, 自动同步到备机的master/slaver机制Master以写为主,Slave以读为主

15.2 能干嘛

读写分离,性能扩展

容灾快速恢复

15.3 Linux搭建 Redis 主从复制

(1)创建 /myredis 文件夹 

mkdir /myredis

(2) 复制 redis.conf 文件到 /myredis 文件夹中

cp /etc/redis.conf /myredis/redis.conf

 

(3) 配置一主两从,创建三个配置文件

touch redis6379.conf
touch redis6380.conf
touch redis6381.conf

(4)在三个配置文件中写入内容

  先修改该目录下的 redis.conf 文件的以下以下,如果之前已修改就不用改了

appendonly no

daemonize yes

  分别在三个文件中写入以下内容

vim redis6379.conf
include /myredis/redis.conf
pidfile /var/run/redis_6379.pid    
port 6379                    
dbfilename dump6379.rdb       
vim redis6380.conf
include /myredis/redis.conf
pidfile /var/run/redis_6380.pid    
port 6380                   
dbfilename dump6380.rdb       
vim redis6381.conf
include /myredis/redis.conf
pidfile /var/run/redis_6381.pid    
port 6381                   
dbfilename dump6381.rdb        

(5)启动三台 redis 服务器

redis-server redis6379.conf
redis-server redis6380.conf
redis-server redis6381.conf

(6)查看系统进程,看看三台服务是否启动

ps -ef|grep redis

(7)查看三台主机运行情况

#打印主从复制的相关信息
info replication

(8)配从(库)不配主(库)

slaveof <ip><port>    成为某个实例的从服务器
在6380和6381上执行    slaveof 127.0.0.1 6379

 

  • 在主机上写,在从机上可以读取数据

在从机上写数据报错

  • 主机挂掉,重启就行,一切如初
  • 从机重启又变为主服务器,需重设:slaveof 127.0.0.1 6379

会从主服务器复制所有数据

  • 可以将配置增加到文件中,永久生效

15.4 常用3招

15.4.1 一主二仆

(1)slave1、slave2是从头开始复制还是从切入点开始复制?比如从k4进来,那之前的set的k1 k2 k3是否也可以复制?

  从主服务器复制全部数据

(2)从机是否可以写?set可否?

  不能

(3)主机shutdown后情况如何?从机是上位还是原地待命?

  原地待命

(4)主机又回来了后,主机新增记录,从机还能否顺利复制?

  能

(5)其中一台从机down后情况如何?依照原有它能跟上大部队吗?

  从主服务器复制全部数据

15.4.2 薪火相传

  上一个Slave可以是下一个slave的Master,Slave同样可以接收其他 slaves的连接和同步请求,那么该slave作为了链条中下一个的master,可以有效减轻master的写压力,去中心化降低风险

  用 slaveof <ip> <port>

  中途变更转向会清除之前的数据,重新建立拷贝最新的

  风险是一旦某个slave宕机,后面的slave都没法备份

  主机挂了,从机还是从机,无法写数据了

15.4.3 反客为主

  当一个master宕机后,后面的slave可以立刻升为master,其后面的slave不用做任何修改

  用 slaveof no one 将从机变为主机

15.5 复制原理

 

  • slave 启动成功连接到 master 后会发送一个 sync 命令
  • master 接到命令启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令, 在后台进程执行完毕之后(即持久化所有数据 rdb文件),master将传送整个数据文件到slave,以完成一次完全同步
  • 全量复制:而 slave 服务在接收到数据库文件数据,flushall后,将其存盘并加载到内存中
  • 增量复制:master 继续将新的所有收集到的修改命令依次传给slave,完成同步
  • 但是只要是重新连接master,一次完全同步(全量复制)将被自动执行
15.6 哨兵模式(sentinel) 

15.6.1 是什么

  反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库

15.6.2 怎么玩(使用步骤)

(1)调整为一主二仆模式,6379带着6380和6381

(2) 自定义的 /myredis 目录下新建 sentinel.conf 文件,名字不能错

配置哨兵,填写内容

sentinel monitor mymaster 127.0.0.1 6379 1

其中mymaster为监控对象起的服务器名称, 1 为至少有多少个哨兵同意迁移的数量

 

(3)启动哨兵

/usr/local/bin

redis做压测可以用自带的redis-benchmark工具

执行 redis-sentinel /myredis/sentinel.conf 

 (4)当主机挂掉,从机选举中产生新的主机

  (大概10秒左右可以看到哨兵窗口日志,切换了新的主机)

  哪个从机会被选举为主机呢?

  根据优先级别:slave-priority 10,已经改名为 replica-priority

  设置从机的优先级,值越小,优先级越高,用于选举主机时使用。默认100

原主机重启后会变为从机。

 

 (5)复制延时

  由于所有的写操作都是先在Master上操作,然后同步更新到Slave上,所以从Master同步到Slave机器有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,Slave机器数量的增加也会使这个问题更加严重

 15.6.3 故障修复

优先级在redis.conf中默认:slave-priority 100,值越小优先级越高

偏移量是指获得原主机数据最全的

每个redis实例启动后都会随机生成一个40位的 runid

 15.6.4 主从复制

private static JedisSentinelPool jedisSentinelPool=null;
public static  Jedis getJedisFromSentinel(){if(jedisSentinelPool==null){
    Set<String> sentinelSet=new HashSet<>();
    sentinelSet.add("192.168.11.103:26379"); // 哨兵IP 端口号

    JedisPoolConfig jedisPoolConfig =new JedisPoolConfig();
    jedisPoolConfig.setMaxTotal(10);    //最大可用连接数
    jedisPoolConfig.setMaxIdle(5);      //最大闲置连接数
    jedisPoolConfig.setMinIdle(5);      //最小闲置连接数
    jedisPoolConfig.setBlockWhenExhausted(true);    //连接耗尽是否等待
    jedisPoolConfig.setMaxWaitMillis(2000);         //等待时间
    jedisPoolConfig.setTestOnBorrow(true);          //取连接的时候进行一下测试 ping pong
    jedisSentinelPool= new JedisSentinelPool("mymaster",sentinelSet,jedisPoolConfig);
    return jedisSentinelPool.getResource();
} else {
    return jedisSentinelPool.getResource();
}

 

16 docker 搭建 Redis 主从复制

  关于docker的安装这里我就不再多做介绍了,不清楚的可以看我之前的docker的笔记或者mysql高级的笔记。这里我就只介绍如何使用docker搭建redis主从复制

16.1 拉取镜像

16.2 创建需要挂载的文件

   由于需要启动3个redis,所以共创建了3份文件。

mkdir -p /mydata/redis6379/data
mkdir -p /mydata/redis6379/conf

touch /mydata/redis6379/conf/redis6379.conf
mkdir -p /mydata/redis6380/data
mkdir -p /mydata/redis6380/conf

touch /mydata/redis6380/conf/redis6380.conf
mkdir -p /mydata/redis6381/data
mkdir -p /mydata/redis6381/conf

touch /mydata/redis6381/conf/redis6381.conf

  由于docker创建的redis没有redis.conf文件,所以需要下载redis.conf配置文件

  以修改redis6379.conf为例,其他的只是将用到的6379改为6380和6381。

vim /mydata/redis6379/conf/redis6379.conf
#复制redis.conf内容到redis6379.conf文件中

   找到以下3处进行修改

# Creating a pid file is best effort: if Redis is not able to create it
# nothing bad happens, the server will start and run normally.
pidfile /var/run/redis_6379.pid

# Specify the log file name. Also the empty string can be used to force
# Redis to log on the standard output. Note that if you use standard
# output for logging but daemonize, logs will be sent to /dev/null
logfile "6379.log"

# The filename where to dump the DB
dbfilename dump6379.rdb

   以上就完成了配置文件的修改。如果希望外网能够访问redis需要

bind 127.0.0.1
protected-mode yes
更改为
# bind 127.0.0.1
protected-mode no

16.3 启动Redis

   我们需要启动3个redis。

  创建redis6379

docker run -p 6379:6379 --name redis6379 \
-v /mydata/redis6379/data:/data \
-v/mydata/redis6379/conf/redis6379.conf:/etc/redis/redis.conf \
--privileged=true \
-d redis:buster redis-server /etc/redis/redis.conf

   创建6380

docker run -p 6380:6380 --name redis6380 \
-v /mydata/redis6380/data:/data \
-v/mydata/redis6380/conf/redis6380.conf:/etc/redis/redis.conf \
--privileged=true \
-d redis:buster redis-server /etc/redis/redis.conf

   创建6381

docker run -p 6381:6381 --name redis6381 \
-v /mydata/redis6381/data:/data \
-v/mydata/redis6381/conf/redis6381.conf:/etc/redis/redis.conf \
--privileged=true \
-d redis:buster redis-server /etc/redis/redis.conf
-p表示端口映射,将主机的端口映射到容器的一个端口 主机端口:容器内部的端口。redis容器内部使用的端口都是6379,而主机的端口分别为6380,63816382--name表示为容器命名
-v表示将主机的文件挂载到容器内的相应文件。
--privileged=true表示容器获的宿主机root权限,不然容器会启动失败,因为无法往挂载的文件中写入内容。
-d表示后台运行

   查看3个redis容器是否启动正常,且有无做端口映射

16.4 主从复制

由于一共有3个redis容器,所以当前启动了3个shell窗口。
redis容器启动完成后,进入redis命令行模式。其中redis6380就是之前创建容器时取得名字,在另外两个窗口改成redis6381,redis6382。
docker exec -it redis6379 redis-cli

docker exec -it redis6380 redis-cli

docker exec -it redis6381 redis-cli

 

16.4.1 一主二仆模式 

  分别启动3个redis,info replication命令查看当前容器角色,发现其角色(role)一开始都是master。

 

   使用SLAVEOF IP 端口的命令可以使当前机器成为另一台机器的从机。所以我们需要获得3台容器的内网ip。

docker inspect containerid 2958e40eb722

docker inspect containerid 891b4b69e5a4

docker inspect containerid 3a5a980886cc

 

   目前我的容器内网ip地址,当然你的地址肯定跟我不同。

redis-6379172.17.0.2

redis-6380172.17.0.3

redis-6380172.17.0.4

  进入redis6380和redis6381 使其作为redis6380的从库,可以看到角色(role)已经变成了slave

SLAVEOF 172.17.0.2 6379

  查看主机reids6380,角色为master,下面有两台连接的从机。

  • 主机添加 key-value 后,从机可以读取
  • 对于从机而言只能读不能写
  • 如果主机shudown,从机原地待命,角色还是slave,连接状态改为down
  • 如果一台从机shutdown,主机在期间添加新的 key-value,从机不会添加。而且重新启动后,角色变为 master。需重设:slaveof 127.0.0.1 6379。会从主服务器复制所有数

16.4.2 薪火相传模式

(1)上一个 slave 可以是下一个 slave 的 Master,slave 同样可以接收其他 slaves 的连接和同步请求,那么该 slave 作为了链条中下一个的master,可以有效减轻 master 的写压力

(2)中途变更转向:会清除之前的数据,重新建立拷贝最新的

(3)slaveof 新主机IP 新主机端口

即6379是6380的主机,而6380是6381的主机。由于一主二仆中6379已经是6381的主机了,所以现在只需要修改6382所跟随的主机

16.4.3 反客为主模式 

  假设回到开始的一主二仆模式,将6381的跟随主机改成6379。若一主二仆中的主机redis6379挂了,shutdown了。

 

  使用命令SLAVEOF no one 使当前数据库停止与其他数据库的同步,转成主数据库。将从机中的redis6381脱离主机,自己的角色从从机变为主机。

  从机redis6380

 

  另一台从机redic6381重新选取主机,作为6380的从机。

  查看redis6380的身份,并设置key-value

  redis6381可以获取到新设置的k10的值

  原先的主机redis6379重新启动后,底下已没有从机跟随 

16.4.4 哨兵模式

  先恢复成原先一主二仆的模式,6379位主,6380和6391为仆

  哨兵模式其实是反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。假设主机半夜宕机了,我们需要从机自动得出一台作为主机,而不是人工来设置主机。

    分别在原先的data下面添加sentinel.conf文件,三份内容一致。内容如下,第一行最后一个数字1,表示主机挂掉后salve投票看让谁接替成为主机,得票数多少后成为主机。

#sentinel monitor 被监控数据库名字(自己起名字) IP地址 端口号 得票数
sentinel monitor redis6379 172.17.0.2 6379 1
#添加为后台运行
daemonize yes
#指定日志目录
logfile "/data/log.txt"

  在挂载的data目录下创建sentinel.conf文件如下:

  分别进入redis6379、redis6380、redis6381三台容器内部,启动哨兵模式。

 

docker exec -it redis6379 /bin/bash

cd /data

ls

redis-sentinel /data/sentinel.conf

  查看日志信息

  主机挂了以后,重新启动主机6379后,redis6380查看角色,发现6380成为主机,下面有redis6379和redis6381两个从机。 

  redis6381查看角色,跟随新的主机redis6380。

  原先的主机redis6370重新启动后,成为新票选出来主机redis6380的从机。数据从redis6380全量复制,即会复制6380中的所有数据。

16.5 总结

  实际生产中还是哨兵模式用的比较多,对于复制延时。由于所有的写操作都是现在Master上操作,然后同步更新到Slave上,所以Master同步到Slave机器上有一定的延迟,当系统很繁忙时,延迟问题会更加严重,Slave机器数量的增加也会使整个问题加重

 

17、Redis 集群

17.1 问题

  容量不够,redis 如何进行扩容?

  并发写操作, redis如何分摊?

  另外,主从模式,薪火相传模式,主机宕机,导致ip地址发生变化,应用程序中配置需要修改对应的主机地址、端口等信息

  之前通过代理主机来解决,但是 redis3.0 中提供了解决方案。就是无中心化集群配置

 

  无中心化可以从任何一个服务器进入,如请求用户,从订单进入会转到用户

17.2 什么是集群

   Redis 集群实现了对 Redis 的水平扩容,即启动 N个 redis 节点,将整个数据库分布存储在这 N个节点中,每个节点存储总数据的 1/N

  Redis 集群通过分区(partition)来提供一定程度的可用性(availability),即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求

17.3 搭建集群

(1)删除之前持久化数据,将 rdb aof 文件都删除掉

rm -rf dump63*

(2)制作6个实例,6379,6380,6381,6389,6390,6391

  以 6379 为例

  修改配置基本信息如下

include /myredis/redis.conf
pidfile "/var/run/redis_6379.pid"
port 6379
dbfilename "dump6379.rdb"

cluster-enabled yes
cluster-config-file nodes-6379.conf
cluster-node-timeout 15000

  修改完成之后,删除之前的 redis6380.conf 和 redis6381.conf,并且复制得到其他几个文件

  使用查找替换修改另外5个文件,例如:

:%s/6379/6380

回车

(3)启动6个redis服务

  注意:

  (1)之前搭建集群主从复制的时候启动的三个进程必须杀掉

  (2)记得修改/myredis/redis.conf的文件以下内容,否则连接会被拒绝或者失败

 

  启动过程和结果如下:

(4) 将6个节点结合成一个集群

  组合之前,请确保所有redis实例启动后,nodes-xxxx.conf 文件都生成正常

合体

   进入 redis 解压的安装目录

cd /opt/module/redis-6.2.1/src/

  执行如下命令

redis-cli --cluster create --cluster-replicas 1 192.168.184.203:6379 192.168.184.203:6380 192.168.184.203:6381 192.168.184.203:6389 192.168.184.203:6390 192.168.184.203:6391

  此处不要用127.0.0.1, 请用真实IP地址

  --replicas 1 采用最简单的方式配置集群,一台主机,一台从机,正好三组

  执行后,yes 接收集群建立方式

  会有一个值:16384 slots covered,表示插槽数量

17.4 登录方式

  (a)普通登录方式

  可能直接进入读主机,存储数据时,会出现MOVED重定向操作。所以应该以集群方式登录

 

  (b) -c 采用集群策略连接,设置数据会自动切换到相应的写主机

17.5 查看集群信息

  通过 cluster nodes 命令查看

17.6 redis cluster 如何分配这六个节点?

  一个集群至少要有三个主节点

  选项 --cluster-replicas 1 表示我们希望为集群中的每个主节点创建一个从节点

  分配原则:尽量保证每个主数据库运行在不同的IP地址,每个从库和主库不在一个IP地址上

17.7 什么是slots

  一个 Redis 集群包含 16384 个插槽(hash slot),数据库中的每个键都属于这 16384 个插槽的其中一个

  集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和

  集群中的每个节点负责处理一部分插槽。举个例子,如果一个集群可以有主节点,其中

    节点 A 负责处理 0 号至 5460 号插槽

    节点 B 负责处理 5461 号至 10922 号插槽

    节点 C 负责处理 10923 号至 16383 号插槽

17.8 在集群中录入值

  不在一个slot下的键值,是不能使用 mget mset 等多键操作

 

  可以通过{ }来定义组的概念,从而使key中{ }内相同内容的键值对放到一个slot中去

17.9 查询集群中的值

cluster keyslot <key>    查询某个key的插槽值
cluster countkeysinslot
<slot> 计算某个插槽中有多少个key,登录哪个服务器才能查看哪个服务器的插槽
cluster getkeysinslot
<slot> <count> 返回 count 个 slot 槽中的键

17.10 故障修复(自动)

  主节点下线,从节点自动升为主节点,注意15秒超时

  主节点恢复后,回来变成从机

  如果所有某一段插槽的主从节点都宕掉,redis服务是否还能继续?

  如果某一段插槽的主从都挂掉,而 cluster-require-full-coverageyes,那么 ,整个集群都挂掉

  如果某一段插槽的主从都挂掉,而 cluster-require-full-coverage 为 no,那么,该插槽数据全都不能使用,也无法存储,其他插槽不受影响

  redis.conf中的参数 cluster-require-full-coverage

17.11 集群的 Jedis开发

  即使连接的不是主机,集群会自动切换主机存储。主机写,从机读

  无中心化主从集群,无论从哪台主机写的数据,其他主机上都能读到数据

public class JedisClusterTest {
    public static void main(String[] args) { 
        Set<HostAndPort> set = new HashSet<HostAndPort>();
        set.add(new HostAndPort("192.168.184.204", 6379));
        
        JedisCluster jedisCluster = new JedisCluster(set);
        
        jedisCluster.set("k1", "v1");
        System.out.println(jedisCluster.get("k1"));
    }
}
// JedisCluster有多个构造器
public static void main(String[] args) {
    // 创建集群
    HostAndPort hostAndPort = new HostAndPort("192.168.184.204", 6379);
    JedisCluster jedisCluster = new JedisCluster(hostAndPort);

    // 进行操作
    jedisCluster.set("b1", "value1");

    String value = jedisCluster.get("b1");
    System.out.println("value: " + value);

    jedisCluster.close();
}

17.12 集群提供了以下好处

    • 实现扩容
    • 分摊压力
    • 无中心配置相对简单

17.13 Redis 集群的不足

    • 多键操作是不被支持的
    • 多键的 Redis 事务是不被支持的,lua脚本不被支持 yaml
    • 由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至redis cluster,需要整体迁移而不是逐步过渡,复杂度较大

 

18、docker实现redis集群搭建

  首先,我们需要理论知识:Redis ClusterRedis的分布式解决方案,它解决了redis单机中心化的问题,分布式数据库——首要解决把整个数据集按照分区规则映射到多个节点的问题。

  这边就需要知道分区规则——哈希分区规则。Redis Cluster 采用哈希分区规则中的虚拟槽分区。所有的键根据哈希函数映射到0 ~ 16383,计算公式:slot = CRC16(key)&16383。每一个节点负责维护一部分槽以及槽所映射的键值数据。

18.1 创建 redis docker 基础镜像

  拉取镜像

  本人之前已经拉取过,就不操作了

docker images

18.2 创建 Redis 容器

   创建三个 redis 容器:

  • redis-node1:6379
  • redis-node2:6380
  • redis-node3:6381
docker create --name redis-node1 -v /data/redis-data/node1:/data -p 6379:6379 redis:buster --cluster-enabled yes --cluster-config-file nodes-node-1.conf


docker create --name redis-node2 -v /data/redis-data/node2:/data -p 6380:6379 redis:buster --cluster-enabled yes --cluster-config-file nodes-node-2.conf


docker create --name redis-node3 -v /data/redis-data/node3:/data -p 6381:6379 redis:buster --cluster-enabled yes --cluster-config-file nodes-node-3.conf
docker ps

 

18.3 启动并组建集群

(1)启动容器

docker start redis-node3 redis-node2 redis-node1

(2)如果出现上图情况,Exited (1) 3 seconds ago,可以通过 docker logs 查看:

  如上提示的是权限问题,我们尝试修改一下权限:

chmod -R  777 /data

 (2)组建集群

  查看3个Redis在Docker中分配的ip结点信息:

执行「docker inspect redis-node1」得到 redis-node1 ip 信息为:172.17.0.4 
执行「docker inspect redis-node2」得到 redis-node2 ip 信息为:172.17.0.3 
执行「docker inspect redis-node3」得到 redis-node3 ip 信息为:172.17.0.2

  拿到 ip 信息后(每个人的ip信息可能不一样),接下来进入某一个容器进行组建集群:

# 这里以进入 node1 为例
docker exec -it redis-node1 /bin/bash

# 接着执行组建集群命令(请根据自己的ip信息进行拼接)
redis-cli --cluster create 172.17.0.4:6379  172.17.0.3:6379  172.17.0.2:6379 --cluster-replicas 0

  ok,此时集群搭建完了,我们接下来测试一下。

(3)测试集群

  使用 redis-cli -c 命令连接到集群结点,然后 set 值,set 值之后会自动重定向到 0.2 ip地址,然后通过 get 获取一下,获取成功证明集群有效。

18.4 存在问题

  按照如上的步骤,虽然集群搭建成功了,但其实还是有点问题的,由于集群结点中的 ip地址 是docket内部分配的,如:172.17.0.2 等,如果使用 redis集群 的项目跟集群不在一台服务器上,那么项目是没法使用集群的,因为是访问不通的。

 

  一种解决方案是让Docker使用 host模式 的网络连接类型,Docker在使用host模式下创建的容器是没有自己独立的网络命名空间的,是跟物理机共享一个网络空间,进而可以共享物理机的所有端口与IP,这样就可以让公共网络直接访问容器了,尽管这种方式有安全隐患,但目前来说还没找到其他可行性模式。

  就存在的问题我们重新采用 host模式,重新创建一下容器:

(1)停止已运行的容器

docker stop redis-node1 redis-node2 redis-node3

(2)删除之前创建的容器

docker rm redis-node1 redis-node2 redis-node3

# 清空上面创建的配置文件
rm -rf /data/redis-data/node*

(3)重新基于 host 模式创建

docker create --name redis-node1 --net host -v /data/redis-data/node1:/data redis:buster --cluster-enabled yes --cluster-config-file nodes-node-1.conf --port 6379

docker create --name redis-node2 --net host -v /data/redis-data/node2:/data redis:buster --cluster-enabled yes --cluster-config-file nodes-node-2.conf --port 6380

docker create --name redis-node3 --net host -v /data/redis-data/node3:/data redis:buster --cluster-enabled yes --cluster-config-file nodes-node-3.conf --port 6381

  跟之前创建命令不同,一是指定了 --net 网络类型为 host,二是这种情况下就不需要端口映射了,比如 -p 6379:6379,因为此时需要对外共享容器端口服务,所以只需要指定对外暴露的端口 -p 6379-p 6380 等。 

(4)启动容器并组建集群

# 启动命令
docker start redis-node1 redis-node2 redis-node3

# 进入某一个容器
dockerexec-itredis-node1/bin/bash# 组建集群,192.168.184.204为当前物理机的ip地址
redis-cli --cluster create 192.168.184.204:6379 192.168.184.204:6380 192.168.184.204:6381 --cluster-replicas 0

(5)查看集群信息

 

19、Redis 应用问题解决

19.1 缓存穿透

19.1.1 问题描述

  key对应的数据在数据源并不存在,每次针对此key的请求从缓存获取不到,请求都会压到数据源,从而可能压垮数据源。比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。

 

19.1.2 解决方案

  一个一定不存在缓存及查询不到的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。

解决方案:

(1) 对空值缓存:如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟

(2) 设置可访问的名单(白名单):

  使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问。

(3) 采用布隆过滤器(布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。

  布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。)

  将所有可能存在的数据哈希到一个足够大的bitmaps中,一个一定不存在的数据会被 这个bitmaps拦截掉,从而避免了对底层存储系统的查询压力。

(4) 进行实时监控:当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务

19.2 缓存击穿

19.2.1 问题描述

  key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

19.2.2 解决方案

  key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题。

解决问题:

1)预先设置热门数据:redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长

2)实时调整:现场监控哪些数据热门,实时调整key的过期时长

3)使用锁:

  (1) 就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db先使用缓存工具的某些带成功操作返回值的操作(比如RedisSETNX

  (2) set一个mutex key

  (3) 当操作返回成功时,再进行load db的操作,并回设缓存,最后删除mutex key

  (4) 当操作返回失败,证明有线程在load db,当前线程睡眠一段时间再重试整个get缓存的方法。

19.3 缓存雪崩

19.3.1 问题描述

  key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

  缓存雪崩与缓存击穿的区别在于这里针对很多key缓存,前者则是某一个key

正常访问

缓存失效瞬间

 

19.3.2 解决方案

缓存失效时的雪崩效应对底层系统的冲击非常可怕!

解决方案:

(1) 构建多级缓存架构:nginx缓存 + redis缓存 +其他缓存(ehcache等)

(2) 使用锁或队列

  用加锁或者队列的方式来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况

(3) 设置过期标志更新缓存:

  记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存。

(4) 将缓存失效时间分散开:

  比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

19.4 分布式锁

19.4.1 问题描述

  随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的Java API并不能提供分布式锁的能力。为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题!

分布式锁主流的实现方案:

  1. 基于数据库实现分布式锁

  2. 基于缓存(Redis等)

  3. 基于Zookeeper

每一种分布式锁解决方案都有各自的优缺点:

  1. 性能:redis最高

  2. 可靠性:zookeeper最高

这里,我们就基于redis实现分布式锁。

19.4.2 解决方案:使用 redis 实现分布式锁

  redis:命令

  # set sku:1:info “OK” NX PX 10000

  EX sec:设置键的过期时间为 sec 秒。set key value EX sec 效果等同于 setex key sec value

  PX millis:设置键的过期时间为 millis 毫秒。 set key value PX millis 效果等同于 PSETEX key millis value

  NX:只在键不存在时,才对键进行设置操作。 set key value NX 效果等同于 setnx key value

  XX:只在键已经存在时,才对键进行设置操作

  1. 多个客户端同时获取锁(setnx)
  2. 获取成功,执行业务逻辑{从db获取数据,放入缓存},执行完成释放锁(del)
  1. 其他客户端等待重试

锁一直没有释放,设置key的过期时间,自动释放

  上锁之后突然出现异常,无法设置过期时间

  上锁的同时设置过期时间

  set users 10 nx ex 12

19.4.3 编写代码

@GetMapping("testLock")
public void testLock() {
    //1获取锁,setne
    Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", "111");
    //2获取锁成功、查询num的值
    if (lock) {
        Object value = redisTemplate.opsForValue().get("num");
        //2.1判断num为空return
        if (StringUtils.isEmpty(value)) {
            return;
        }
        //2.2有值就转成成int
        int num = Integer.parseInt(value + "");
        //2.3把redis的num加1
        redisTemplate.opsForValue().set("num", ++num);
        //2.4释放锁,del
        redisTemplate.delete("lock");

    } else {
        //3获取锁失败、每隔0.1秒再获取
        try {
            Thread.sleep(100);
            testLock();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

重启,服务集群,通过网关压力测试:

ab -n 5000 -c 100 http://192.168.184.204:8080/redisTest/testLock

查看redis中num的值,基本实现

问题:setnx刚好获取到锁,业务逻辑出现异常,导致锁无法释放

解决:设置过期时间,自动释放锁。

19.4.4 优化之设置锁的过期时间

设置过期时间有两种方式:

(1)首先想到通过expire设置过期时间(缺乏原子性:如果在setnx和expire之间出现异常,锁也无法释放)

(2)在set时指定过期时间(推荐)

 

设置过期时间

压力测试肯定也没有问题

问题:可能会释放其他服务器的锁

    1. A B C并发操作
    2. A执行,1上锁,2具体操作,此时服务器卡住,3超时自动释放锁
    3. B抢到执行,1上锁,2具体操作,3途中A服务器恢复过来,进行删除锁操作,B的锁会被释放

解决:setnx获取锁时,设置一个指定的唯一值(例如:uuid);释放前获取这个值,判断是否自己的锁

 

19.4.5 优化之 UUID 防误删

@GetMapping("testLock")
public void testLock() {
    //  1 获取锁,setne
    String uuid = UUID.randomUUID().toString();
    Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock",uuid,3,TimeUnit.SECONDS);

    //  2 获取锁成功、查询num的值
    if (lock) {
        Object value = redisTemplate.opsForValue().get("num");
        // 2.1 判断num为空return
        if (StringUtils.isEmpty(value)) {
            return;
        }
        // 2.2 有值就转成成int
        int num = Integer.parseInt(value + "");
        // 2.3 把redis的num加1
        redisTemplate.opsForValue().set("num", ++num);
        // 2.4 释放锁,del
        String lockuuid = (String) redisTemplate.opsForValue().get("lock");
        if (uuid.equals(lockuuid)) {
            redisTemplate.delete("lock");
        }
    } else {
        // 3 获取锁失败、每隔0.1秒再获取
        try {
            Thread.sleep(100);
            testLock();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

问题删除操作缺乏原子性

    1. A B C并发操作
    2. A执行,1上锁,2具体操作,3超时判断uuid一致,正要释放锁的时候,锁已经过期自动删除
    3. B抢到执行,1上锁,2具体操作,3途中A服务器执行删除操作,B的锁会被释放

 

19.4.6 优化之LUA脚本保证删除的原子性

@GetMapping("testLockLua")
public void testLockLua() {
    // 1 声明一个uuid ,将做为一个value 放入我们的key所对应的值中
    String uuid = UUID.randomUUID().toString();
    // 2 定义一个锁:lua 脚本可以使用同一把锁,来实现删除!
    String skuId = "25"; // 访问skuId 为25号的商品 100008348542
    String locKey = "lock:" + skuId; // 锁住的是每个商品的数据

    // 3 获取锁
    Boolean lock = redisTemplate.opsForValue().setIfAbsent(locKey,uuid,3,TimeUnit.SECONDS);

    // 如果true
    if (lock) {
        // 执行的业务逻辑开始
        // 获取缓存中的num 数据
        Object value = redisTemplate.opsForValue().get("num");
        
        // 如果是空直接返回
        if (StringUtils.isEmpty(value)) {
            return;
        }
        
        int num = Integer.parseInt(value + "");
        // 使num 每次+1 放入缓存
        redisTemplate.opsForValue().set("num", String.valueOf(++num));
        
        /*使用lua脚本来锁*/
        // 定义lua 脚本
        String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return " +
            "redis.call('del', KEYS[1]) else return 0 end";
        
        // 使用redis执行lua执行
        DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
        redisScript.setScriptText(script);
        
        // 设置一下返回值类型 为Long
        // 因为删除判断的时候,返回的0,给其封装为数据类型。如果不封装那么默认返回String 类型,
        // 那么返回字符串与0 会有发生错误。
        redisScript.setResultType(Long.class);
        
        // 第一个要是script 脚本 ,第二个需要判断的key,第三个就是key所对应的值。
        redisTemplate.execute(redisScript, Arrays.asList(locKey), uuid);
    } else {
        // 其他线程等待
        try {
            // 睡眠
            Thread.sleep(1000);
            // 睡醒了之后,调用方法。
            testLockLua();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

Lua 脚本详解:

项目中正确使用

19.4.7 总结

 (1)枷锁

// 1. 从redis中获取锁,set k1 v1 px 20000 nxString uuid = UUID.randomUUID().toString();
Boolean lock = this.redisTemplate.opsForValue().setIfAbsent("lock", uuid, 2, TimeUnit.SECONDS);

(2)使用 lua 锁释放锁

// 2. 释放锁 del
String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
// 设置lua脚本返回的数据类型
DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
// 设置lua脚本返回类型为Long
redisScript.setResultType(Long.class);
redisScript.setScriptText(script);
redisTemplate.execute(redisScript, Arrays.asList("lock"),uuid);

(3)重试

Thread.sleep(500);
testLock();

为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件:

  • 互斥性。在任意时刻,只有一个客户端能持有锁
  • 不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁
  • 解铃还须系铃人。加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了
  • 加锁和解锁必须具有原子性

 

20 Redis6.0 新功能

20.1 ACL

20.1.1 简介

Redis ACLAccess Control List(访问控制列表)的缩写,该功能允许根据可以执行的命令和可以访问的键来限制某些连接。

Redis 5版本之前,Redis 安全规则只有密码控制 还有通过rename 来调整高危命令比如 flushdb KEYS* shutdown 等。Redis 6 则提供ACL的功能对用户进行更细粒度的权限控制 :

1)接入权限:用户名和密码

2)可以执行的命令

3)可以操作的 KEY

参考官网:https://redis.io/topics/acl

20.1.2 命令

(1)使用 acl list 命令展示用户权限列表

(2)使用acl cat命令

(a)查看添加权限指令类别

(b) 加参数类型名可以查看类型下具体命令

(3)使用acl whoami命令查看当前用户

(4)使用aclsetuser命令创建和编辑用户ACL

(a)ACL规则

下面是有效ACL规则的列表。某些规则只是用于激活或删除标志,或对用户ACL执行给定更改的单个单词。其他规则是字符前缀,它们与命令或类别名称、键模式等连接在一起。

(b)通过命令创建新用户默认权限

acl setuser user1

 

在上面的示例中,我根本没有指定任何规则。如果用户不存在,这将使用just created的默认属性来创建用户。如果用户已经存在,则上面的命令将不执行任何操作。

(c)设置有用户名、密码、ACL权限、并启用的用户

acl setuser user2 on >password ~cached:* +get

 

(d) 切换用户,验证权限

20.2 IO 多线程

20.2.1 简介

 Redis6终于支撑多线程了,告别单线程了吗?

IO多线程其实指客户端交互部分网络IO交互处理模块多线程,而非执行命令多线程Redis6执行命令依然是单线程。

20.2.2 原理架构

   Redis 6 加入多线程,但跟 Memcached 这种从 IO处理到数据访问多线程的实现模式有些差异。Redis 的多线程部分只是用来处理网络数据的读写和协议解析,执行命令仍然是单线程。之所以这么设计是不想因为多线程而变得复杂,需要去控制 key、lua、事务,LPUSH/LPOP 等等的并发问题。整体的设计大体如下

  另外,多线程IO默认也是不开启的,需要再配置文件中配置

  io-threads-do-reads  yes

  io-threads 4

20.3 工具支持 Cluster

  之前老版Redis想要搭集群需要单独安装ruby环境,Redis 5 redis-trib.rb 的功能集成到 redis-cli 。另外官方 redis-benchmark 工具开始支持 cluster 模式了,通过多线程的方式对多个分片进行压测

 

20.4 Redis 新功能持续关注

 Redis6新功能还有:

1RESP3新的 Redis 通信协议:优化服务端与客户端之间通信

2Client side caching客户端缓存:基于 RESP3 协议实现的客户端缓存功能。为了进一步提升缓存的性能,将客户端经常访问的数据cache到客户端。减少TCP网络交互。

3Proxy集群代理模式:Proxy 功能,让 Cluster 拥有像单实例一样的接入方式,降低大家使用cluster的门槛。不过需要注意的是代理不改变 Cluster 的功能限制,不支持的命令还是不会支持,比如跨 slot 的多Key操作。

4Modules API

Redis 6中模块API开发进展非常大,因为Redis Labs为了开发复杂的功能,从一开始就用上Redis模块。Redis可以变成一个框架,利用Modules来构建不同系统,而不需要从头开始写然后还要BSD许可。Redis一开始就是一个向编写各种系统开放的平台。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

_9.5  

下面是有效ACL规则的列表。某些规则只是用于激活或删除标志,或对用户ACL执行给定更改的单个单词。其他规则是字符前缀,它们与命令或类别名称、键模式等连接在一起。

ACL规则

类型

参数

说明

启动和禁用用户

on

激活某用户账号

off

禁用某用户账号。注意,已验证的连接仍然可以工作。如果默认用户被标记为off,则新连接将在未进行身份验证的情况下启动,并要求用户使用AUTH选项发送AUTH或HELLO,以便以某种方式进行身份验证。

权限的添加删除

+<command>

将指令添加到用户可以调用的指令列表中

-<command>

从用户可执行指令列表移除指令

+@<category>

添加该类别中用户要调用的所有指令,有效类别为@admin、@set、@sortedset…等,通过调用ACL CAT命令查看完整列表。特殊类别@all表示所有命令,包括当前存在于服务器中的命令,以及将来将通过模块加载的命令。

-@<actegory>

从用户可调用指令中移除类别

allcommands

+@all的别名

nocommand

-@all的别名

可操作键的添加或删除

~<pattern>

添加可作为用户可操作的键的模式。例如~*允许所有的键

 

posted @ 2021-11-15 21:14  沧海一粟hr  阅读(184)  评论(0编辑  收藏  举报