REDIS集群

REDIS 集群

NoSQL 产品(key-value)

RDBMS :MySQL,Oracle ,MSSQL,PG
NoSQL  :Redis,MongoDB,列存储存储相关
NewSQL----->分布式数据库架构(学习了MongoDB)
缓存产品介绍:
memcached (大公司会做二次开发)
redis
Tair

Redis功能介绍

数据类型丰富    (笔试、面试)*****
支持持久化      (笔试、面试) *****
多种内存分配及回收策略
支持事务            (面试)    ****
消息队列、消息订阅 
支持高可用                    ****
支持分布式分片集群 (面试)   *****
缓存穿透\雪崩(笔试、面试)   *****
Redis API                  **

企业缓存产品介绍

Memcached:
优点:高性能读写、单一数据类型、支持客户端式分布式集群、一致性hash
多核结构、多线程读写性能高。
缺点:无持久化、节点故障可能出现缓存穿透、分布式需要客户端实现、跨机房数据同步困难、架构扩容复杂度高
Redis:  优点:高性能读写、多数据类型支持、数据持久化、高可用架构、支持自定义虚拟内存、支持分布式分片集群、单线程读写性能极高
缺点:多线程读写较Memcached慢
新浪、京东、直播类平台、网页游戏   
memcache与redis在读写性能的对比
memcached 适合,多用户访问,每个用户少量的rw
redis     适合,少用户访问,每个用户大量rw 

Tair:
优点:高性能读写、支持三种存储引擎(ddb、rdb、ldb)、支持高可用、支持分布式分片集群、支撑了几乎所有淘宝业务的缓存。
缺点:单机情况下,读写性能较其他两种产品较慢

Redis使用场景介绍

Memcached:多核的缓存服务,更加适合于多用户并发访问次数较少的应用场景
Redis:单核的缓存服务,单节点情况下,更加适合于少量用户,多次访问的应用场景。
Redis一般是单机多实例架构,配合redis集群出现。

redis部署与使用

redis 基础

官网地址https://redis.io/

Redis和 Memcached 是非关系型数据库,也称为NoSQL数据库 ,MySQL 、 Mariadb 、 SQL S erver 、 PostgreSQL 、Oracle 数据库属于关系型数据 RDBMS, Relational Database Management System

redis 简介

Redis (Remote Dictionary S erver在2009年发布开发者Salvatore Sanfilippo是意大利开发者他本想为自己的公司开发一个用于替换MySQL的产品 Redis,但是没有想到他把Redis开源后大受欢迎,短短几年,Redis就有了很大的用户群体,目前国内外使用的公司有知乎网 、新浪微博、GitHub等;

Redis是一个开源的、遵循BSD协议的、 基于内存的而且目前比较流行的键值数据库key value database是一个非关系型数据库redis提供将内存通过网络远程共享的一种服务 ,提供类似功能的还有memcache,但相比memcache redis还提供了易扩展、高性能、具备数据持久性等功能。

Redis在高并发、低延迟环境要求比较高的环境使用量非常广泛,目前redis在DBE nginx月排行榜https://db engines.com/en/ranking 中一直比较靠前,而且一直是键值型存储类的首位 。

img

redis 特点

1.速度快
  c语言写的
  代码优雅
  单线程架构 
2.支持多种数据结构
  字符串,哈希,列表,集合,有序集合,地理位置
3.丰富的功能
  天然计数器
  健过期功能
  消息队列
4.支持客户端语言多
  php,java,python
5.数据持久化
  所有的数据都运行在内存中
  支持2种格式持久化数据AOF RDB AOF&RDB
6.自带多种高可用架构
  主从
  哨兵
  集群

redis 典型应用场景:

1.缓存-键过期时间
  把session会话存在redis,过期删除
  缓存用户信息,缓存Mysql部分数据,用户先访问redis,redis没有再访问mysql,然后回写给redis
  商城优惠卷过期时间
2.排行榜-列表&有序集合
  热度/点击数排行榜
  直播间礼物积分排行
3.计数器-天然支持计数器
  帖子浏览数
  视频播放数
  评论数
  点赞/踩
4.社交网络-集合
  粉丝
  共同好友 
  兴趣爱好
  标签
5.消息队列-发布订阅
  配合ELK缓存收集来的日志

官方下载地址:

http://download.redis.io/releases/

Redis安装部署

下载:

[root@db01 data]# wget http://download.redis.io/releases/redis-3.2.12.tar.gz

解压:上传

tar xzf redis-3.2.12.tar.gz
mv redis-3.2.12 redis

安装:

yum -y install gcc automake autoconf libtool make
[root@db01 data]# cd redis/ 
make

环境变量:

vim /etc/profile 
export PATH=/data/redis/src:$PATH
source /etc/profile 

启动:

redis-server & 

连接测试:

redis-cli 
127.0.0.1:6379> set num 10
OK
127.0.0.1:6379> get num
10

Redis基本管理操作

基础配置文件介绍

mkdir -p  /data/6379
cat > /data/6379/redis.conf<<EOF
daemonize yes                        
port 6379
logfile /data/6379/redis.log
dir /data/6379                        
dbfilename dump.rdb
EOF
redis-cli shutdown 
redis-server /data/6379/redis.conf 
netstat -lnp|grep 63

配置文件详解:

redis.conf
是否后台运行:
daemonize yes
默认端口:
port 6379
日志文件位置
logfile /var/log/redis.log
持久化文件存储位置
dir /data/6379
RDB持久化数据文件:
dbfilename dump.rdb

连接测试

redis-cli
127.0.0.1:6379> set name zhangsan 
OK
127.0.0.1:6379> get name
"zhangsan"

redis安全配置protected-mode

redis默认开启了保护模式,只允许本地回环地址登录并访问数据库。
禁止protected-mode`

protected-mode yes/no (保护模式,是否只允许本地访问)
Bind :指定IP进行监听
echo bind 10.0.0.51  127.0.0.1 >> /data/6379/redis.conf
#增加requirepass  {password}
echo requirepass 123456 >>/data/6379/redis.conf

验证

方法一:

[root@db01 ~]# redis-cli -a 123456
127.0.0.1:6379> set a 1
OK
127.0.0.1:6379> exit

方法二:

[root@db01 ~]# redis-cli
127.0.0.1:6379> auth 123456
OK
127.0.0.1:6379> set a b
[root@db01 src]# redis-cli -a 123 -h 10.0.0.51 -p 6379
10.0.0.51:6379> set b 2
OK

编译安装

Redis 安装部署:

目录规划

###redis下载目录
/data/soft目录
###redis安装目录
/opt/redis  cluster/redis {PORT}/{conf,logs,pid} redis数据目录
/data/redis  cluster/reids {PORT}/redis {PORT}.rdb
###redis运维脚本
/root/scripts/redis_shell.sh

版本选择

2.x  very old
3.x  redis-cluster 
4.x  混合持久化
5.x  新增加了流处理类型 最新稳定版 

安装命令

[root@db01 ~]# tail -3 /etc/hosts
10.0.0.51 db01    
10.0.0.52 db02    
10.0.0.53 db03
mkdir -p /data/soft
mkdir -p /data/redis_cluster/redis_6379
mkdir -p /opt/redis_cluster/redis_6379/{conf,pid,logs}
cd /data/soft/
wget http://download.redis.io/releases/redis-3.2.9.tar.gz
tar zxf redis-3.2.9.tar.gz -C /opt/redis_cluster/
ln -s /opt/redis_cluster/redis-3.2.9/ /opt/redis_cluster/redis
cd /opt/redis_cluster/redis
make && make install

配置文件

cat > /data/redis_cluster/redis_6379/redis.conf<<EOF
daemonize yes                        
bind 10.0.0.51
port 6379
pidfile /opt/redis_cluster/redis_6379/pid/redis_6379.pid
logfile /opt/redis_cluster/redis_6379/logs/redis_6379.log
dir /data/redis_cluster/redis_6379                     dbfilename redis_6379.rdb
databases 16
EOF
### 以守护进程模式启动
daemonize yes
### 绑定的主机地址
bind 10.0.0.51
### 监听端口
port 6379  
### pid文件和log文件的保存地址
pidfile /opt/redis_cluster/redis_6379/pid/redis_6379.pid
logfile /opt/redis_cluster/redis_6379/logs/redis_6379.log
### 设置数据库的数量,默认数据库为0
databases 16
### 指定本地持久化文件的文件名,默认是dump.rdb
dbfilename redis_6379.rdb
### 本地数据库的目录
dir /data/redis_cluster/redis_6379

启动关闭服务

启动

[root@db01 ~]# redis-server /opt/redis_cluster/redis_6379/conf/redis_6379.conf

关闭

[root@db01 ~]# redis-cli -h db01 shutdown

在线查看和修改配置

[root@db01 src]#  redis-cli
CONFIG GET *
CONFIG GET requirepass
CONFIG GET r*
CONFIG SET requirepass 123

redis持久化(内存数据保存到磁盘)

RDB、AOF

RDB 持久化
可以在指定的时间间隔内生成数据集的 时间点快照(point-in-time snapshot)。
优点:速度快,适合于用做备份,主从复制也是基于RDB持久化功能实现的。
缺点:会有数据丢失

AOF 持久化(append-only log file)
记录服务器执行的所有写操作命令,并在服务器启动时,通过重新执行这些命令来还原数据集。
AOF 文件中的命令全部以 Redis 协议的格式来保存,新命令会被追加到文件的末尾。
优点:可以最大程度保证数据不丢
缺点:日志记录量级比较大

RDB持久化核心配置:

[root@db01 src]#vim /data/6379/redis.conf
dir /data/6379
dbfilename dump.rdb
save 900 1
save 300 10
save 60 10000
[root@db01 src]# redis-server /data/6379/redis.conf

配置分别表示:
900秒(15分钟)内有1个更改
300秒(5分钟)内有10个更改
60秒内有10000个更改

AOF持久化配置

appendonly yes
appendfsync always
appendfsync everysec
appendfsync no
是否打开aof日志功能
每1个命令,都立即同步到aof 
每秒写1次
写入工作交给操作系统,由操作系统判断缓冲区大小,统一写入到aof.
vim /data/6379/redis.conf
appendonly yes
appendfsync everysec 

面试题:

redis 持久化方式及区别

rdb:基于快照的持久化,速度更快,一般用作备份,主从复制也是依赖于rdb持久化功能
aof:以追加的方式记录redis操作日志的文件。可以最大程度的保证redis数据安全,类似于mysql的binlog

Redis数据类型(笔试):

String: 字符类型

Hash: 字典类型

List: 列表

Set: 集合

Sorted set: 有序集合

image-20201125095508214

KEY的通用操作

KEYS *   keys a  keys a*   # 查看已存在所有键的名字   ****
TYPE                       # 返回键所存储值的类型     ****
EXPIRE\ PEXPIRE            # 以秒\毫秒设定生存时间       ***
TTL\ PTTL                  # 以秒\毫秒为单位返回生存时间 ***
PERSIST                    # 取消生存时间设置            ***
DEL                        # 删除一个key
EXISTS                     # 检查是否存在
RENAME                     # 变更KEY名

KEY案例:

[root@db01 src]# redis-cli -a 123 
127.0.0.1:6379> set name zhangsan 
127.0.0.1:6379> EXPIRE name 60
(integer) 1
127.0.0.1:6379> ttl name
(integer) 57
127.0.0.1:6379> set a b ex 60
OK
127.0.0.1:6379> ttl a
127.0.0.1:6379> PERSIST a
(integer) 1
127.0.0.1:6379> ttl a
(integer) -1

Strings

应用场景
session 共享
常规计数:微博数,粉丝数,订阅、礼物

key:value
----------
set name zhangsan  
 MSET id 101 name zhangsan age 20 gender m
 等价于以下操作:
 SET id 101 
 set name zhangsan 
 set age 20 
 set gender m
(3)计数器
每点一次关注,都执行以下命令一次
127.0.0.1:6379> incr num
显示粉丝数量:
127.0.0.1:6379> get num
暗箱操作:
127.0.0.1:6379> INCRBY num 10000
(integer) 10006
127.0.0.1:6379> get num
"10006"
127.0.0.1:6379> DECRBY num 10000
(integer) 6
127.0.0.1:6379> get num
"6"

set mykey "test"                #为键设置新值,并覆盖原有值
getset mycounter 0              #设置值,取值同时进行
setex mykey 10 "hello"          #设置指定 Key 的过期时间为10秒,在存活时间可以获取value
setnx mykey "hello"             #若该键不存在,则为键设置新值
mset key3  "zyx"  key4 "xyz"    #批量设置键

del mykey                        #删除已有键

append mykey "hello"      #若该键并不存在,返回当前 Value 的长度
                          #该键已经存在,返回追加后 Value的长度
incr mykey                #值增加1,若该key不存在,创建key,初始值设为0,增加后结果为1
decrby  mykey  5          #值减少5
setrange mykey 20 dd     #把第21和22个字节,替换为dd, 超过value长度,自动补0

exists mykey                    判断该键是否存在,存在返回 1,否则返回0
get mykey                       获取Key对应的value
strlen mykey                    获取指定 Key 的字符长度
ttl mykey                       查看一下指定 Key 的剩余存活时间(秒数)
getrange mykey 1 20             获取第2到第20个字节,若20超过value长度,则截取第2个和后面所有的
mget key3 key4                  批量获取键

hash类型(字典类型)

应用场景:
存储部分变更的数据,如用户信息等。
最接近mysql表结构的一种类型
主要是可以做数据库缓存。

Hash看起来就像一个’hash’的样子.由键值对组成
HMSET指令设置hash中的多个域
HGET取回单个域.
HMGET取回一系列的值

存数据:

hmset stu  id 101 name zhangsan age 20 gender m
hmset stu1 id 102 name zhangsan1 age 21 gender f

取数据:

HMGET stu id name age gender
HMGET stu1 id name age gender
select concat("hmset city_",id," id ",id," name ",name," countrycode ",countrycode," district ",district," population ",population) from city limit 10 into outfile '/tmp/hmset.txt'

hash类型案例:

hset myhash field1 "s"    
若字段field1不存在,创建该键及与其关联的Hashes, Hashes中,key为field1 ,并设value为s ,若存在会覆盖原value
hsetnx myhash field1 s    
若字段field1不存在,创建该键及与其关联的Hashes, Hashes中,key为field1 ,并设value为s, 若字段field1存在,则无效
hmset myhash field1 "hello" field2 "world"      
一次性设置多个字段

hdel myhash field1      #删除 myhash 键中字段名为 field1 的字段
del myhash              #删除键

hincrby myhash field 1                  给field的值加1

hget myhash field1                      获取键值为 myhash,字段为 field1 的值
hlen myhash                             获取myhash键的字段数量
hexists myhash field1                   判断 myhash 键中是否存在字段名为 field1 的字段
hmget myhash field1 field2 field3       一次性获取多个字段
hgetall myhash                          返回 myhash 键的所有字段及其值
hkeys myhash                            获取myhash 键中所有字段的名字
hvals myhash                            获取 myhash 键中所有字段的值

LIST(列表)

LIST应用场景

消息队列系统
比如sina微博
Redis中我们的最新微博ID使用了常驻缓存,这是一直更新的。
但是做了限制不能超过5000个ID,因此获取ID的函数会一直询问Redis
只有在start/count参数超出了这个范围的时候,才需要去访问数据库。
系统不会像传统方式那样“刷新”缓存,Redis实例中的信息永远是一致的。
SQL数据库(或是硬盘上的其他类型数据库)只是在用户需要获取“很远”的数据时才会被触发,
而主页或第一个评论页是不会麻烦到硬盘上的数据库了。

LPUSH命令可向list的左边(头部)添加一个新元素
RPUSH命令可向list的右边(尾部)添加一个新元素.
最后LRANGE可以从list中取出一定范围的元素

微信朋友圈:

127.0.0.1:6379> LPUSH wechat "today is nice day !"
127.0.0.1:6379> LPUSH wechat "today is bad day !"
127.0.0.1:6379> LPUSH wechat "today is good  day !"
127.0.0.1:6379> LPUSH wechat "today is rainy  day !"
127.0.0.1:6379> LPUSH wechat "today is friday !"
[5,4,3,2,1]
 0 1 2 3 4 
[e,d,c,b,a]
0 1 2 3  4

127.0.0.1:6379> lrange wechat  0 0
1) "today is friday !"
127.0.0.1:6379> lrange wechat  0 1
1) "today is friday !"
2) "today is rainy  day !"
127.0.0.1:6379> lrange wechat  0 2
1) "today is friday !"
2) "today is rainy  day !"
3) "today is good  day !"
127.0.0.1:6379> lrange wechat  0 3
127.0.0.1:6379> lrange wechat  -2 -1
1) "today is bad day !"
2) "today is nice day !"

LIST列表案例:

lpush mykey a,b             #若key不存在,创建该键及与其关联的List,依次插入a ,b, 若List类型的key存在,则插入value中
lpushx mykey2 e             #若key不存在,此命令无效, 若key存在,则插入value中
linsert mykey before a a1   #在 a 的前面插入新元素 a1
linsert mykey after e e2    #在e 的后面插入新元素 e2
rpush mykey a b             #在链表尾部先插入b,在插入a
rpushx mykey e              #若key存在,在尾部插入e, 若key不存在,则无效
rpoplpush mykey mykey2      #将mykey的尾部元素弹出,再插入到mykey2 的头部(原子性的操作)

del mykey                   #删除已有键 
lrem mykey 2 a              #从头部开始找,按先后顺序,值为a的元素,删除数量为2个,若存在第3个,则不删除
ltrim mykey 0 2             #从头开始,索引为0,1,2的3个元素,其余全部删除

lset mykey 1 e              #从头开始, 将索引为1的元素值,设置为新值 e,若索引越界,则返回错误信息
rpoplpush mykey mykey       #将 mykey 中的尾部元素移到其头部

lrange mykey 0 -1           #取链表中的全部元素,其中0表示第一个元素,-1表示最后一个元素。
lrange mykey 0 2            #从头开始,取索引为0,1,2的元素
lrange mykey 0 0            #从头开始,取第一个元素,从第0个开始,到第0个结束
lpop mykey                  #获取头部元素,并且弹出头部元素,出栈
lindex mykey 6              #从头开始,获取索引为6的元素 若下标越界,则返回nil

SET 集合类型(join union

应用场景:

案例:在微博应用中,可以将一个用户所有的关注人存在一个集合中,将其所有粉丝存在一个集合。
Redis还为集合提供了求交集、并集、差集等操作,可以非常方便的实现如共同关注、共同喜好、二度好友等功能,
对上面的所有集合操作,你还可以使用不同的命令选择将结果返回给客户端还是存集到一个新的集合中。

Srem用来删除指定的值

Sdiff计算集合的差异成员

Sinter计算集合的交集

Sunion计算集合并集

127.0.0.1:6379> sadd lxl pg1 jnl baoqiang gsy alexsb
(integer) 5
127.0.0.1:6379> sadd jnl baoqiang ms bbh yf wxg
(integer) 5
127.0.0.1:6379> SUNION lx jnl     
1) "baoqiang"
2) "yf"
3) "bbh"
4) "ms"
5) "wxg"
127.0.0.1:6379> SUNION lxl  jnl
1) "gsy"
2) "yf"
3) "alexsb"
4) "bbh"
5) "jnl"
6) "pg1"
7) "baoqiang"
8) "ms"
9) "wxg"
127.0.0.1:6379> SINTER lxl jnl   
1) "baoqiang"
127.0.0.1:6379> SDIFF jnl lxl
1) "wxg"
2) "yf"
3) "bbh"
4) "ms"
127.0.0.1:6379> SDIFF lxl jnl
1) "jnl"
2) "pg1"
3) "gsy"
4) "alexsb"

SET集合类型应用案例:

sadd myset a b c  
#若key不存在,创建该键及与其关联的set,依次插入a ,b,若key存在,则插入value中,若a 在myset中已经存在,则插入了 d 和 e 两个新成员。

spop myset              #尾部的b被移出,事实上b并不是之前插入的第一个或最后一个成员
srem myset a d f        #若f不存在, 移出 a、d ,并返回2

smove myset myset2 a     #将a从 myset 移到 myset2,

sismember myset a      #判断 a 是否已经存在,返回值为 1 表示存在。
smembers myset         #查看set中的内容
scard myset            #获取Set 集合中元素的数量
srandmember myset      #随机的返回某一成员
sdiff myset1 myset2 myset3      #1和2得到一个结果,拿这个集合和3比较,获得每个独有的值
sdiffstore diffkey myset myset2 myset3      #3个集和比较,获取独有的元素,并存入diffkey 关联的Set中
sinter myset myset2 myset3              #获得3个集合中都有的元素
sinterstore interkey myset myset2 myset3  #把交集存入interkey 关联的Set中
sunion myset myset2 myset3              #获取3个集合中的成员的并集
sunionstore unionkey myset myset2 myset3  #把并集存入unionkey 关联的Set中

SortedSet(有序集合)

应用场景:
排行榜应用,取TOP N操作
这个需求与上面需求的不同之处在于,前面操作以时间为权重,这个是以某个条件为权重,比如按顶的次数排序,
这时候就需要我们的sorted set出马了,将你要排序的值设置成sorted setscore,将具体的数据设置成相应的value
每次只需要执行一条ZADD命令即可。

SortedSet案例总结:

zadd myzset 2 "two" 3 "three"      # 添加两个分数分别是 2 和 3 的两个成员

zrem myzset one two                 #删除多个成员变量,返回删除的数量

zincrby myzset 2 one                #将成员 one 的分数增加 2,并返回该成员更新后的分数

zrange myzset 0 -1 WITHSCORES    #返回所有成员和分数,不加WITHSCORES,只返回成员
zrank myzset one       #获取成员one在Sorted-Set中的位置索引值。0表示第一个位置
zcard myzset            #获取 myzset 键中成员的数量
zcount myzset 1 2       #获取分数满足表达式 1 <= score <= 2 的成员的数量
zscore myzset three     #获取成员 three 的分数
zrangebyscore myzset  1 2  #获取分数满足表达式 1 < score <= 2 的成员
#-inf                  #表示第一个成员,+inf最后一个成员
#limit限制关键字
#2  3  是索引号
zrangebyscore myzset -inf +inf limit 2 3  #返回索引是2和3的成员
zremrangebyscore myzset 1 2         #删除分数 1<= score <= 2 的成员,并返回实际删除的数量
zremrangebyrank myzset 0 1         #删除位置索引满足表达式 0 <= rank <= 1 的成员
zrevrange myzset 0 -1 WITHSCORES        #按位置索引从高到低,获取所有成员和分数
#原始成员:位置索引从小到大
      one  0  
      two  1
#执行顺序:把索引反转
      位置索引:从大到小
      one 1
      two 0
#输出结果: two  
       one
zrevrange myzset 1 3        #获取位置索引,为1,2,3的成员
#相反的顺序:从高到低的顺序
zrevrangebyscore myzset 3 0   #获取分数 3>=score>=0的成员并以相反的顺序输出
zrevrangebyscore myzset 4 0 limit 1 2    #获取索引是1和2的成员,并反转位置索引
127.0.0.1:6379> zadd topN 0 smlt 0 fskl 0 fshkl 0 lzlsfs 0 wdhbx 0 wxg 
(integer) 6
127.0.0.1:6379> ZINCRBY topN 100000 smlt
"100000"
127.0.0.1:6379> ZINCRBY topN 10000 fskl
"10000"
127.0.0.1:6379> ZINCRBY topN 1000000 fshkl
"1000000"
127.0.0.1:6379> ZINCRBY topN 100 lzlsfs
"100"
127.0.0.1:6379> ZINCRBY topN 10 wdhbx
"10"
127.0.0.1:6379> ZINCRBY topN 100000000 wxg
"100000000"
127.0.0.1:6379> ZREVRANGE topN 0 2 
1) "wxg"
2) "fshkl"
3) "smlt"
127.0.0.1:6379> ZREVRANGE topN 0 2 withscores
1) "wxg"
2) "100000000"
3) "fshkl"
4) "1000000"
5) "smlt"
6) "100000"
127.0.0.1:6379> 

发布订阅

image-20201125104144127

PUBLISH channel msg
将信息 message 发送到指定的频道 channel
SUBSCRIBE channel [channel ...]
订阅频道,可以同时订阅多个频道
UNSUBSCRIBE [channel ...]
取消订阅指定的频道, 如果不指定频道,则会取消订阅所有频道
PSUBSCRIBE pattern [pattern ...]
订阅一个或多个符合给定模式的频道,每个模式以 * 作为匹配符,比如 it* 匹配所 有以 it 开头的频道( it.news 、 it.blog 、 it.tweets 等等), news.* 匹配所有 以 news. 开头的频道( news.it 、 news.global.today 等等),诸如此类
PUNSUBSCRIBE [pattern [pattern ...]]
退订指定的规则, 如果没有参数则会退订所有规则
PUBSUB subcommand [argument [argument ...]]
查看订阅与发布系统状态
注意:使用发布订阅模式实现的消息队列,当有客户端订阅``channel后只能收到后续发布到该频道的消息,之前发送的不会缓存,必须ProviderConsumer`同时在线。

发布订阅例子:

窗口1:
127.0.0.1:6379> SUBSCRIBE baodi 
窗口2:
127.0.0.1:6379> PUBLISH baodi "jin tian zhen kaixin!"
订阅多频道:
窗口1:
127.0.0.1:6379> PSUBSCRIBE wang*
窗口2:
127.0.0.1:6379> PUBLISH wangbaoqiang "jintian zhennanshou "

Redis弱事务

redis的事务是基于队列实现的。
mysql的事务是基于事务日志和锁机制实现的。
redis是乐观锁机制。

开启事务功能(multi)
multi 
command1      
command2
command3
command4
exec 
discard
4条语句作为一个组,并没有真正执行,而是被放入同一队列中。
如果,这时执行discard,会直接丢弃队列中所有的命令,而不是做回滚。
exec

当执行exec时,对列中所有操作,要么全成功要么全失败

127.0.0.1:6379> set a b
OK
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set a b
QUEUED
127.0.0.1:6379> set c d
QUEUED
127.0.0.1:6379> exec
1) OK
2) OK

redis乐观锁实现(模拟买票)

发布一张票
set ticket 1
窗口1:
watch ticket
multi
set ticket 0       1---->0
窗口2:
multi 
set ticket 0 
exec 
窗口1:
exec

服务器管理命令

Info
Client list
Client kill ip:port
config get *
CONFIG RESETSTAT 重置统计
CONFIG GET/SET 动态修改
Dbsize
FLUSHALL 清空所有数据 
select 1
FLUSHDB 清空当前库
MONITOR 监控实时指令
SHUTDOWN 关闭服务器
关闭数据库:
redis-cli -a root shutdown

redis(Master-Replicas)主从复制

image-20201125172028190

REDIS主从原理:

1.副本库通过slaveof 10.0.0.51 6379命令,连接主库,并发送SYNC给主库 
2.主库收到SYNC,会立即触发BGSAVE,后台保存RDB,发送给副本库
3.副本库接收后会应用RDB快照
4.主库会陆续将中间产生的新的操作,保存并发送给副本库
5.到此,我们主复制集就正常工作了
6.再此以后,主库只要发生新的操作,都会以命令传播的形式自动发送给副本库.
7.所有复制相关信息,从info信息中都可以查到.即使重启任何节点,他的主从关系依然都在.
8.如果发生主从关系断开时,从库数据没有任何损坏,在下次重连之后,从库发送PSYNC给主库
9.主库只会将从库缺失部分的数据同步给从库应用,达到快速恢复主从的目的

主从数据一致性保证

min-slaves-to-write 1  #主从复制至少保证1台写入
min-slaves-max-lag  3  #从库网络延时3秒

主库开启持久化原因(面试题):

如果不开有可能,主库重启操作,造成所有主从数据丢失!

主从复制实现

REDIS主从复制环境:

准备两个或两个以上redis实例

mkdir /data/638{0..2}

配置文件

cat >> /data/6380/redis.conf <<EOF
port 6380
daemonize yes
pidfile /data/6380/redis.pid
loglevel notice
logfile "/data/6380/redis.log"
dbfilename dump.rdb
dir /data/6380
requirepass 123
masterauth 123
EOF

cat >>   /data/6381/redis.conf <<EOF
port 6381
daemonize yes
pidfile /data/6381/redis.pid
loglevel notice
logfile "/data/6381/redis.log"
dbfilename dump.rdb
dir /data/6381
requirepass 123
masterauth 123
EOF

cat >>   /data/6382/redis.conf <<EOF
port 6382
daemonize yes
pidfile /data/6382/redis.pid
loglevel notice
logfile "/data/6382/redis.log"
dbfilename dump.rdb
dir /data/6382
requirepass 123
masterauth 123
EOF

#所有节点密码都一致  保证主从可以互换

启动:

redis-server /data/6380/redis.conf
redis-server /data/6381/redis.conf
redis-server /data/6382/redis.conf

主节点:6380

从节点:6381、6382

开启主从:

6381/6382命令行:

redis-cli -p 6381 -a 123 SLAVEOF 127.0.0.1 6380
redis-cli -p 6382 -a 123 SLAVEOF 127.0.0.1 6380

查询主从状态

 redis-cli -p 6380 -a 123 info replication
 redis-cli -p 6381 -a 123 info replication
 redis-cli -p 6382 -a 123 info replication

解除主从身份

[root@db01 6380]# redis-cli -p 6382 -a 123 SLAVEOF no one

redis-sentinel(哨兵)类似MHA

监控:检测心跳
自动选主,切换(6381 slaveof no one)
采用的是raft分布式一致性协议进行选主:数据节接近主,可以和大部分节点联系,少数服从多数。
重构主从关系
应用透明 
自动处理故障节点

sentinel搭建过程

mkdir /data/26380
cd /data/26380
vim sentinel.conf
port 26380
dir "/data/26380"
sentinel monitor mymaster 127.0.0.1 6380 1  #票数
sentinel down-after-milliseconds mymaster 5000  #5秒
sentinel auth-pass mymaster 123 


扩展:#多台
sentinel monitor mymaster2 127.0.0.1 6380 1  #票数
sentinel down-after-milliseconds mymaster2 5000  #5秒
sentinel auth-pass mymaster2 123 

启动

[root@db01 26380]# redis-sentinel /data/26380/sentinel.conf  &>/tmp/sentinel.log &

解决故障:

重新准备1主2从环境
kill掉sentinel进程
删除sentinel目录下的所有文件
重新搭建sentinel

停主库测试:

[root@db01 ~]# redis-cli -p 6380 -a 123 shutdown
[root@db01 ~]# redis-cli -p 6381 -a 123 info replication

启动源主库(6380),看状态。

redis-server /data/6380/redis.conf

Sentinel管理命令

redis-cli -p 26380
PING :返回 PONG 。
SENTINEL masters :列出所有被监视的主服务器
SENTINEL slaves mymaster
SENTINEL get-master-addr-by-name mymaster : 返回给定名字的主服务器的 IP 地址和端口号。 
SENTINEL reset <pattern> : 重置所有名字和给定模式 pattern 相匹配的主服务器。 
SENTINEL failover mymaster : 当主服务器失效时, 在不询问其他 Sentinel 意见的情况下, 强制开始一次自动故障迁移。

注: 线上操作一定要小心,因为切主后会清空之前所有的数据.

consul + redis (扩展)

redis cluster

image-20201125104750541

Redis Cluster 通讯流程

在分布式存储中需要提供维护节点元数据信息的机制,所谓元数据是指:节点负责哪些数据,是否出现故障灯状态信息,redis 集群采用 Gossip(流言)协议,Gossip 协议工作原理就是节点彼此不断交换信息,一段时间后所有的节点都会知道集群完整信息,这种方式类似流言传播。
通信过程:
集群中的每一个节点都会单独开辟一个 Tcp 通道,用于节点之间彼此通信,通信端口在基础端口上家10000.
每个节点在固定周期内通过特定规则选择结构节点发送 ping 消息
接收到 ping 消息的节点用 pong 消息作为响应。集群中每个节点通过一定规则挑选要通信的节点,每个节点可能知道全部节点,也可能仅知道部分节点,只要这些节点彼此可以正常通信,最终他们会打成一致的状态,当节点出现故障,新节点加入,主从角色变化等,它能够给不断的ping/pong消息,从而达到同步目的。
通讯消息类型:
Gossip
Gossip 协议职责就是信息交换,信息交换的载体就是节点间彼此发送Gossip 消息。
常见 Gossip 消息分为:pingpongmeetfail
meet
meet 消息:用于通知新节点加入,消息发送者通知接受者加入到当前集群,meet 消息通信正常完成后,接收节点会加入到集群中并进行ping、 pong 消息交换
ping
ping 消息:集群内交换最频繁的消息,集群内每个节点每秒想多个其他节点发送 ping 消息,用于检测节点是否在线和交换彼此信息。
pong
Pong 消息:当接收到 ping,meet 消息时,作为相应消息回复给发送方确认消息正常通信,节点也可以向集群内广播自身的 pong 消息来通知整个集群对自身状态进行更新。
fail
fail 消息:当节点判定集群内另一个节点下线时,回向集群内广播一个fail 消息,其他节点收到 fail 消息之后把对应节点更新为下线状态。

面试题:图解

QQ图片20201125144342

高性能

在多分片节点中,将16384个槽位,均匀分布到多个分片节点中
存数据时,将key做crc16(key),然后和16384进行取模,得出槽位值(0-16383之间)
根据计算得出的槽位值,找到相对应的分片节点的主节点,存储到相应槽位上
如果客户端当时连接的节点不是将来要存储的分片节点,分片集群会将客户端连接切换至真正存储节点进行数据存储

高可用:

在搭建集群时,会为每一个分片的主节点,对应一个从节点,实现slaveof的功能,同时当主节点down,实现类似于sentinel的自动failover的功能。
redis会有多组分片构成(3组)
redis cluster 使用固定个数的slot存储数据(一共16384slot)
每组分片分得1/3 slot个数(0-5500  5501-11000  11001-16383)
、基于CRC16(key) % 16384 ====》值 (槽位号)。

规划、搭建过程:

6个redis实例,一般会放到3台硬件服务器
注:在企业规划中,一个分片的两个分到不同的物理机,防止硬件主机宕机造成的整个分片数据丢失。
端口号:7000-7005

image-20201125204516311

安装集群插件

EPEL源安装ruby支持
yum install ruby rubygems -y
使用国内源
gem sources -l
gem sources -a http://mirrors.aliyun.com/rubygems/ 
gem sources  --remove https://rubygems.org/
gem sources -l
gem install redis -v 3.3.3

集群节点准备

mkdir /data/700{0..5}
cat > /data/7000/redis.conf <<EOF
port 7000
daemonize yes
pidfile /data/7000/redis.pid
loglevel notice
logfile "/data/7000/redis.log"
dbfilename dump.rdb
dir /data/7000
protected-mode no
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes
EOF

cat >> /data/7001/redis.conf <<EOF
port 7001
daemonize yes
pidfile /data/7001/redis.pid
loglevel notice
logfile "/data/7001/redis.log"
dbfilename dump.rdb
dir /data/7001
protected-mode no
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes
EOF

cat >> /data/7002/redis.conf <<EOF
port 7002
daemonize yes
pidfile /data/7002/redis.pid
loglevel notice
logfile "/data/7002/redis.log"
dbfilename dump.rdb
dir /data/7002
protected-mode no
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes
EOF


cat >>  /data/7003/redis.conf <<EOF
port 7003
daemonize yes
pidfile /data/7003/redis.pid
loglevel notice
logfile "/data/7003/redis.log"
dbfilename dump.rdb
dir /data/7003
protected-mode no
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes
EOF


cat >> /data/7004/redis.conf <<EOF
port 7004
daemonize yes
pidfile /data/7004/redis.pid
loglevel notice
logfile "/data/7004/redis.log"
dbfilename dump.rdb
dir /data/7004
protected-mode no
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes
EOF

cat >> /data/7005/redis.conf <<EOF
port 7005
daemonize yes
pidfile /data/7005/redis.pid
loglevel notice
logfile "/data/7005/redis.log"
dbfilename dump.rdb
dir /data/7005
protected-mode no
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes
EOF

启动节点:

redis-server /data/7000/redis.conf 
redis-server /data/7001/redis.conf 
redis-server /data/7002/redis.conf 
redis-server /data/7003/redis.conf 
redis-server /data/7004/redis.conf 
redis-server /data/7005/redis.conf 
[root@db01 ~]# ps -ef |grep redis
root       8854      1  0 03:56 ?        00:00:00 redis-server *:7000 [cluster]     
root       8858      1  0 03:56 ?        00:00:00 redis-server *:7001 [cluster]     
root       8860      1  0 03:56 ?        00:00:00 redis-server *:7002 [cluster]     
root       8864      1  0 03:56 ?        00:00:00 redis-server *:7003 [cluster]     
root       8866      1  0 03:56 ?        00:00:00 redis-server *:7004 [cluster]     
root       8874      1  0 03:56 ?        00:00:00 redis-server *:7005 [cluster]  

将节点加入集群管理

redis-trib.rb create --replicas 1 127.0.0.1:7000 127.0.0.1:7001 \
127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005

集群状态查看

集群主节点状态

redis-cli -p 7000 cluster nodes | grep master

集群从节点状态

redis-cli -p 7000 cluster nodes | grep slave

集群节点管理

增加新的节点

mkdir /data/7006
mkdir /data/7007
cat > /data/7006/redis.conf <<EOF
port 7006
daemonize yes
pidfile /data/7006/redis.pid
loglevel notice
logfile "/data/7006/redis.log"
dbfilename dump.rdb
dir /data/7006
protected-mode no
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes
EOF

cat >  /data/7007/redis.conf <<EOF
port 7007
daemonize yes
pidfile /data/7007/redis.pid
loglevel notice
logfile "/data/7007/redis.log"
dbfilename dump.rdb
dir /data/7007
protected-mode no
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes
EOF

启动节点

redis-server /data/7006/redis.conf 
redis-server /data/7007/redis.conf 

添加主节点:

redis-trib.rb add-node 127.0.0.1:7006 127.0.0.1:7000

转移slot(重新分片)

redis-trib.rb reshard 127.0.0.1:7000
How many slots do you want to move (from 1 to 16384)?4096
What is the receiving node ID?   # 7006
0dee667edf2987e0ee4d5c79499af92adb1afe5b
Source node #1:all

添加一个从节点

redis-trib.rb add-node --slave --master-id 0dee667edf2987e0ee4d5c79499af92adb1afe5b     127.0.0.1:7007 127.0.0.1:7000

删除节点

将需要删除节点slot移动走

注:由7000到7005逐一的移动

redis-trib.rb reshard 127.0.0.1:7000
How many slots do you want to move (from 1 to 16384)? 1365
What is the receiving node ID? 948d1b86444a486f169b6e4b3a35cc1ba2b53a6f #7000
Source node #1:0dee667edf2987e0ee4d5c79499af92adb1afe5b#7006
Source node #2:done
How many slots do you want to move (from 1 to 16384)? 1366
What is the receiving node ID? 773001aaa7af4ebdea7f8f7cd2c4252f215f4e59  #7001
Source node #1:0dee667edf2987e0ee4d5c79499af92adb1afe5b
Source node #2:done
How many slots do you want to move (from 1 to 16384)? 1365
What is the receiving node ID? da3a9fa44ce7ec6caab67b24df48cbf262bdabf6  #7002

删除一个节点

删除master节点之前首先要使用reshard移除master的全部slot,然后再删除当前节点
redis-trib.rb del-node 127.0.0.1:7006 0dee667edf2987e0ee4d5c79499af92adb1afe5b
redis-trib.rb del-node 127.0.0.1:7007 b18ec2014b9f3e738fe0c4b94203dc302b5f23e6
---------------------
设置redis最大内存
config set maxmemory 102400000
---------------------

redis运维工具

刚切换到redis集群的时候肯定会面临数据导入的问题,所以这里推荐使用redis-migrate-tool工具来导入单节点数据到集群里
官方地址:
http://www.oschina.net/p/redis-migrate-tool
安装工具

cd /opt/redis_cluster/
git clone https://github.com/vipshop/redis-migrate-tool.git
cd redis-migrate-tool/
autoreconf -fvi
./configure
make && make install 

创建配置文件

 [root@db01 ~]# cat redis_6379_to_6380.conf    
[source]
type: single
servers:
- 10.0.0.51:6379

[target]
type: redis cluster
servers:
- 10.0.0.51:6380 
 
[common]
listen: 0.0.0.0:8888
source_safe: true
1234567891011121314

生成测试数据

[root@db01 ~]# cat input_key.sh 
#!/bin/bash
for i in $(seq 1 1000)
do
    redis-cli -c -h db01 -p 6379 set k_${i} v_${i} && echo "set k_${i} is ok"
done

执行导入命令

 [root@db01 ~]# redis-migrate-tool -c redis_6379_to_6380.conf 

数据校验

[root@db01 ~]# redis-migrate-tool -c redis_6379_to_6380.conf -C redis_check

分析键值大小
redis的内存使用太大键值太多,不知道哪些键值占用的容量比较大,而且在线分析会影响性能.

 yum install python-pip gcc python-devel 
cd /opt/
git clone https://github.com/sripathikrishnan/redis-rdb-tools
cd redis-rdb-tools
python setup.py install

使用方法

cd /data/redis_cluster/redis_6380/
rdb -c memory redis_6380.rdb -f redis_6380.rdb.csv

分析rdb并导出

 awk -F ',' '{print $4,$2,$3,$1}' redis_6380.rdb.csv |sort  > 6380.txt

redis的多API支持

python为例
yum install -y python36 
python3 -V
yum install -y python36-pip
pip3 install redis 
pip3 install redis-py-cluster

源码方式

https://redis.io/clients
下载redis-py-master.zip
安装驱动:
unzip redis-py-master.zip
cd redis-py-master
python3 setup.py install
redis cluster的连接并操作(python2.7.2以上版本才支持redis cluster,我们选择的是3.6)
https://github.com/Grokzen/redis-py-cluster
安装redis-cluser的客户端程序
cd redis-py-cluster-unstable
python3 setup.py install

对redis的单实例进行连接操作

[root@db01 ~]# redis-server /data/6379/redis.conf 
[root@db01 ~]#python3
>>>import redis
>>>r = redis.StrictRedis(host='10.0.0.51', port=6379, db=0,password='123')
>>>r.set('oldboy', 'oldguo')
>>>r.get('oldboy')	
 导入redis sentinel包
>>>from redis.sentinel import Sentinel  
##指定sentinel的地址和端口号
>>> sentinel = Sentinel([('localhost', 26380)], socket_timeout=0.1)  
##测试,获取以下主库和从库的信息
>>> sentinel.discover_master('mymaster')  
>>> sentinel.discover_slaves('mymaster')  

sentinel集群连接并操作

 redis-server /data/6380/redis.conf
 redis-server /data/6381/redis.conf
redis-server /data/6382/redis.conf 
 redis-sentinel /data/26380/sentinel.conf &
--------------------------------

配置读写分离

#写节点
>>> master = sentinel.master_for('mymaster', socket_timeout=0.1,password="123")  
#读节点
>>> slave = sentinel.slave_for('mymaster', socket_timeout=0.1,password="123")  
###读写分离测试   key     
>>> master.set('oldboy', '123')  
>>> slave.get('oldboy')  

python连接rediscluster集群测试

[root@db01 ~]# python3
python3
>>> from rediscluster import RedisCluster  
 >>> startup_nodes = [{"host":"127.0.0.1", "port": "7000"},{"host":"127.0.0.1", "port": "7001"},{"host":"127.0.0.1", "port": "7002"},{"host":"127.0.0.1", "port": "7004"},{"host":"127.0.0.1", "port": "7005"},{"host":"127.0.0.1", "port": "7006"}]  
### Note: decode_responses must be set to True when used with python3  
>>> rc = RedisCluster(startup_nodes=startup_nodes, decode_responses=True)
>>> rc.set("foo", "bar")  
True  
>>> print(rc.get("foo"))  
'bar'

缓存穿透

访问一个不存在的key,缓存不起作用,请求会穿透到DB,流量大时DB会挂掉。
解决方案
采用布隆过滤器,使用一个足够大的bitmap,用于存储可能访问的key,不存在的key直接被过滤;
访问key未在DB查询到值,也将空值写进缓存,但可以设置较短过期时间。

缓存雪崩

大量的key设置了相同的过期时间,导致在缓存在同一时刻全部失效,造成瞬时DB请求量大、压力骤增,引起雪崩。
解决方案
可以给缓存设置过期时间时加上一个随机值时间,使得每个key的过期时间分布开来,不会集中在同一时刻失效。

REDIS运维脚本

[root@db01 ~]# cat redis_shell.sh 
#!/bin/bash

USAG(){
    echo "sh $0 {start|stop|restart|login|ps|tail} PORT"
}
if [ "$#" = 1 ]
then
    REDIS_PORT='6379'
elif 
    [ "$#" = 2 -a -z "$(echo "$2"|sed 's#[0-9]##g')" ]
then
    REDIS_PORT="$2"
else
    USAG
    exit 0
fi

REDIS_IP=$(hostname -I|awk '{print $1}')
PATH_DIR=/opt/redis_cluster/redis_${REDIS_PORT}/
PATH_CONF=/opt/redis_cluster/redis_${REDIS_PORT}/conf/redis_${REDIS_PORT}.conf
PATH_LOG=/opt/redis_cluster/redis_${REDIS_PORT}/logs/redis_${REDIS_PORT}.log

CMD_START(){
    redis-server ${PATH_CONF}
}

CMD_SHUTDOWN(){
    redis-cli -c -h ${REDIS_IP} -p ${REDIS_PORT} shutdown
}

CMD_LOGIN(){
    redis-cli -c -h ${REDIS_IP} -p ${REDIS_PORT}
}

CMD_PS(){
    ps -ef|grep redis
}

CMD_TAIL(){
    tail -f ${PATH_LOG}
}

case $1 in
    start)
        CMD_START
        CMD_PS
        ;;
    stop)
        CMD_SHUTDOWN
        CMD_PS
        ;;
    restart)
        CMD_START
        CMD_SHUTDOWN
        CMD_PS
        ;;
    login)
        CMD_LOGIN
        ;;
    ps)
        CMD_PS
        ;;
    tail)
        CMD_TAIL
        ;;
    *)
        USAG
esac

监控过期键

需求背景
因为开发重复提交,导致电商网站优惠卷过期时间失效
问题分析
如果一个键已经设置了过期时间,这时候在set这个键,过期时间就会取消
解决思路
如何在不影响机器性能的前提下批量获取需要监控键过期时间
1.Keys * 查出来匹配的键名。然后循环读取ttl时间
2.scan * 范围查询键名。然后循环读取ttl时间
Keys 重操作,会影响服务器性能,除非是不提供服务的从节点
Scan 负担小,但是需要去多次才能取完,需要写脚本
脚本内容:

cat 01get_key.sh 
#!/bin/bash
key_num=0
> key_name.log
for line in $(cat key_list.txt)
do
    while true
    do
        scan_num=$(redis-cli -h 192.168.47.75 -p 6380 SCAN ${key_num} match ${line}\* count 1000|awk 'NR==1{print $0}')
        key_name=$(redis-cli -h 192.168.47.75 -p 6380 SCAN ${key_num} match ${line}\* count 1000|awk 'NR>1{print $0}')
        echo ${key_name}|xargs -n 1 >> key_name.log
        ((key_num=scan_num))
        if [ ${key_num} == 0 ]
           then
           break
        fi
    done
done

posted @ 2021-03-06 15:00  上善若水~小辉  阅读(119)  评论(0编辑  收藏  举报