Redis篇:Linux下操作redis
目录
一、redis介绍安装和配置典型应用场景
1.1 介绍
开源:c语言,早起版本2w3千行,没有外部依赖
基于键值对的存储系统:字典形式
多种数据结构:字符串,hash,列表,集合,有序集合
高性能,功能丰富
哪些公司在用?
github,twitter,stackoverflow,阿里,百度,微博,美团,搜狐
1.2 redis特性
速度快:10w ops(每秒10w读写),数据存在内存中,c语言实现,单线程模型
持久化:rdb和aof,混合持久化
多种数据结构:
-5大数据结构
-BitMaps位图: 本质是 字符串
-HyperLogLog:超小内存唯一值计数,12kb HyperLogLog 本质是 字符串
-GEO:地理信息定位 本质是有序集合
支持多种编程语言:基于tcp通信协议,各大编程语言都支持
功能丰富:发布订阅(消息) Lua脚本,事务(pipeline)
简单:源代码几万行,不依赖外部库
主从复制:主服务器和从服务器,主服务器可以同步到从服务器中
高可用和分布式:
2.8版本以后使用redis-sentinel支持高可用
3.0版本以后支持分布式
1.3 下载安装
地址:https://download.redis.io/releases/
# 下载
yum install wget # 下载命令
wget http://download.redis.io/releases/redis-5.0.7.tar.gz
tar -xzf redis-5.0.7.tar.gz
# 建立软连接
ln -s redis-5.0.7 redis
cd redis
make&&make install
#在src目录下可以看到
redis-server--->redis服务端可执行文件
redis-cli---》redis命令行客户端
redis-benchmark---》redis性能测试工具
redis-check-aof--->aof文件修复工具
redis-check-dump---》rdb文件检查工具
redis-sentinel---》sentinel服务器,哨兵,高可用
# 卸载
####卸载redis
# 1、查看redis进程;
ps aux|grep redis
# 2、kill掉进程;
kill 进程id
# 3、进入到redis目录
cd /usr/local/
# 4、删除redis对应的文件
rm -f /usr/local/redis/bin/redis*
rm -f /usr/local/bin/redis*
# 5、删除对应的文件
rm -rf redis
1.4 三种启动方式
# 三种启动方式
#方式一:最简启动
redis-server
ps -ef|grep redis #查看进程
netstat -antpl|grep redis #查看端口
redis-cli -h ip -p port ping #命令查看
redis-cli shutdown
# 方式二:动态参数
redis-serve --port 6380
#方式三:配置文件启动
#配置文件启动(6379对应手机按键MERZ,意大利女歌手Alessia Merz的名字)
#####通过redis-cli连接,输入config get * 可以获得默认配置
#在redis目录下创建config目录,copy一个redis.conf文件
daemonize--》是否是守护进程启动(no|yes)
port---》端口号
logfile--》redis系统日志
dir--》redis工作目录
# 配置文件
daemonize yes
pidfile /var/run/redis.pid
port 6379
dir "/root/redis/data"
logfile "6379.log"
# 以配置文件启动
./src/redis-server redis.conf
1.5 客户端链接
./src/redis-cli -h 地址 -p 端口
## 有密码的情况可以两种登陆方式
# 方式一
redis-cli -h 127.0.0.1 -p 6370 -a 123456
# 方式二
先登陆,再通过auth输入密码
CONFIG SET maxmemory 128M
CONFIG set requirepass 123456
CONFIG REWRITE # 把更改保存到配置文件
1.6 redis典型使用场景
缓存系统:使用最广泛的就是缓存
计数器:网站访问量,转发量,评论数(文章转发,商品销量,单线程模型,不会出现并发问题)
消息队列:发布订阅,阻塞队列实现(简单的分布式,blpop:阻塞队列,生产者消费者)
排行榜:有序集合(阅读排行,点赞排行,推荐(销量高的,推荐))
社交网络:很多特效跟社交网络匹配,粉丝数,关注数
实时系统:垃圾邮件处理系统,布隆过滤器
数据共享:session多机共享
二、API的使用
2.1 通用命令
# 算法好坏的一个衡量标准
-时间复杂度和空间复杂度
-O(1)
-O(log n)
-O(n)
-O(n方)
# 1 keys
# 打印出所有key
keys *
# 打印出所有以he开头的key
keys he*
# 打印出所有以he开头,第三个字母是h到l的范围
keys he[h-l]
# 三位长度,以he开头,?表示任意一位
keys he?
#keys命令一般不在生产环境中使用,生产环境key很多,时间复杂度为o(n),用scan命令
# 2 dbsize 计算key的总数
dbsize #redis内置了计数器,插入删除值该计数器会更改,所以可以在生产环境使用,时间复杂度是o(1)
# 3 exists key 时间复杂度o(1)
# 设置a
set a b
# 查看a是否存在
exists a
# (integer) 1
# 存在返回1 不存在返回0
# 4 del key 时间复杂度o(1)
删除成功返回1,key不存在返回0
# 5 expire key seconds 时间复杂度o(1)
expire name 3 # 3s 过期
ttl name # 查看name还有多长时间过期
persist name # 去掉name的过期时间
# 6 type key 时间复杂度o(1)
type name # 查看name类型,返回string
# 7 其他
info命令:内存,cpu,主从相关
client list 正在连接的会话
client kill ip:端口
dbsize 总共有多少个key
flushall 清空所有
flushdb 只清空当前库
select 数字 选择某个库 总共16个库
monitor 记录操作日志,夯住
2.2 字符串命令
# 1 基本使用get,set,del
get name #时间复杂度 o(1)
set name lqz #时间复杂度 o(1)
del name #时间复杂度 o(1)
# 2 其他使用incr,decr,incrby,decrby
incr age #对age这个key的value值自增1
decr age #对age这个key的value值自减1
incrby age 10 #对age这个key的value值增加10
decrby age 10 #对age这个key的value值减10
# 统计网站访问量(单线程无竞争,天然适合做计数器)
# 缓存mysql的信息(json格式)
# 分布式id生成(多个机器同时并发着生成,不会重复)
# 3 set,setnx,setxx
set name lqz # 不管key是否存在,都设置
setnx name lqz # key不存在时才设置(新增操作)
set name lqz nx # 同上
set name lqz xx # key存在,才设置(更新操作)
# 4 mget mset
mget key1 key2 key3 #批量获取key1,key2.。。时间复杂度o(n)
mset key1 value1 key2 value2 key3 value3 #批量设置时间复杂度o(n)
# n次get和mget的区别
# n次get时间=n次命令时间+n次网络时间
# mget时间=1次网络时间+n次命令时间
# 5 其他:getset,append,strlen
getset name lqznb #设置新值并返回旧值 时间复杂度o(1)
append name 666 #将value追加到旧的value 时间复杂度o(1)
strlen name #计算字符串长度(注意中文) 时间复杂度o(1)
# 6 其他:incrybyfloat,getrange,setrange
increbyfloat age 3.5 #为age自增3.5,传负值表示自减 时间复杂度o(1)
getrange key start end #获取字符串制定下标所有的值 时间复杂度o(1)
setrange key index value #从指定index开始设置value值 时间复杂度o(1)
2.3 哈希类型
# 1 hget,hset,hdel
hget key field #获取hash key对应的field的value 时间复杂度为 o(1)
hset key field value #设置hash key对应的field的value值 时间复杂度为 o(1)
hdel key field #删除hash key对应的field的值 时间复杂度为 o(1)
# 测试
hset user:1:info age 23
hget user:1:info ag
hset user:1:info name lqz
hgetall user:1:info
hdel user:1:info age
# 2 hexists,hlen
hexists key field #判断hash key 是否存在field 时间复杂度为 o(1)
hlen key #获取hash key field的数量 时间复杂度为 o(1)
hexists user:1:info name
hlen user:1:info #返回数量
# 3 hmget,hmset
hmget key field1 field2 ...fieldN #批量获取hash key 的一批field对应的值 时间复杂度是o(n)
hmset key field1 value1 field2 value2 #批量设置hash key的一批field value 时间复杂度是o(n)
# 4 hgetall,hvals,hkeys
hgetall key #返回hash key 对应的所有field和value 时间复杂度是o(n)
hvals key #返回hash key 对应的所有field的value 时间复杂度是o(n)
hkeys key #返回hash key对应的所有field 时间复杂度是o(n)
### 小心使用hgetall
## (1) 计算网站每个用户主页的访问量
hincrby user-1-info pageview count
## (2) 缓存mysql的信息,直接设置hash格式
# 其他操作 hsetnx,hincrby,hincrbyfloat
hsetnx key field value # 设置hash key对应field的value(如果field已存在,则失败),时间复杂度o(1)
hincrby key field intCounter # hash key 对英的field的value自增intCounter 时间复杂度o(1)
hincrbyfloat key field floatCounter # hincrby 浮点数 时间复杂度o(1)
2.4 列表类型
(1)插入操作
# rpush 从右侧插入
rpush key value1 value2 ...valueN #时间复杂度为o(1~n)
# lpush 从左侧插入
# linsert
linsert key before|after value newValue # 从元素value的前或后插入newValue 时间复杂度o(n) ,需要遍历列表
linsert listkey before b java
linsert listkey after b php
(2)删除操作
lpop key #从列表左侧弹出一个item 时间复杂度o(1)
rpop key #从列表右侧弹出一个item 时间复杂度o(1)
lrem key count value
# 根据count值,从列表中删除所有value相同的项 时间复杂度o(n)
1 count>0 从左到右,删除最多count个value相等的项
2 count<0 从右向左,删除最多 Math.abs(count)个value相等的项
3 count=0 删除所有value相等的项
lrem listkey 0 a # 删除列表中所有值a
lrem listkey -1 c # 从右侧删除1个c
ltrim key start end # 按照索引范围修剪列表 o(n)
ltrim listkey 1 4 # 只保留下表1--4的元素
(3)查询操作
lrange key start end #包含end获取列表指定索引范围所有item o(n)
lrange listkey 0 2
lrange listkey 1 -1 #获取第一个位置到倒数第一个位置的元素
lindex key index #获取列表指定索引的item o(n)
lindex listkey 0
lindex listkey -1
llen key #获取列表长度
(4) 修改操作
lset key index newValue #设置列表指定索引值为newValue o(n)
lset listkey 2 ppp #把第二个位置设为ppp
# 实战
实现timeLine功能,时间轴,微博关注的人,按时间轴排列,在列表中放入关注人的微博的即可
# 其他操作
blpop key timeout #lpop的阻塞版,timeout是阻塞超时时间,timeout=0为拥有不阻塞 o(1)
brpop key timeout #rpop的阻塞版,timeout是阻塞超时时间,timeout=0为拥有不阻塞 o(1)
# 要实现栈的功能
lpush+lpop
# 实现队列功能
lpush+rpop
# 固定大小的列表
lpush+ltrim
# 消息队列
lpush+brpop
2.5 集合类型
# 无序,无重复,集合间操作(交叉并补)
sadd key element # 向集合key添加element(如果element存在,添加失败) o(1)
srem key element # 从集合中的element移除掉 o(1)
scard key # 计算集合大小
sismember key element # 判断element是否在集合中
srandmember key count # 从集合中随机取出count个元素,不会破坏集合中的元素
spop key # 从集合中随机弹出一个元素
smembers key # 获取集合中所有元素 ,无序,小心使用,会阻塞住
sdiff user:1:follow user:2:follow # 计算user:1:follow和user:2:follow的差集
sinter user:1:follow user:2:follow # 计算user:1:follow和user:2:follow的交集
sunion user:1:follow user:2:follow # 计算user:1:follow和user:2:follow的并集
SINTERSTORE destination key1 [key2] # 将差集,交集,并集结果保存在destkey集合中
2.6 有序集合类型
# 介绍
# 有一个分值字段,来保证顺序
key score value
user:ranking 1 lqz
user:ranking 99 lqz2
user:ranking 88 lqz3
# 集合有序集合
集合:无重复元素,无序,element
有序集合:无重复元素,有序,element+score
# 列表和有序集合
列表:可以重复,有序,element
# zset
zadd key score element # score可以重复,可以多个同时添加,element不能重复 o(logN)
zrem key element # 删除元素,可以多个同时删除 o(1)
zscore key element # 获取元素的分数 o(1)
zincrby key increScore element # 增加或减少元素的分数 o(1)
zcard key # 返回元素总个数 o(1)
zrank key element # 返回element元素的排名(从小到大排,从0开始)
zrange key 0 -1 # 返回排名,不带分数 o(log(n)+m) n是元素个数,m是要获取的值
zrange player:rank 0 -1 withscores #返回排名,带分数
zrangebyscore key minScore maxScore # 返回指定分数范围内的升序元素 o(log(n)+m) n是元素个数,m是要获取的值
zrangebyscore user:1:ranking 90 210 withscores # 获取90分到210分的元素
zcount key minScore maxScore # 返回有序集合内在指定分数范围内的个数 o(log(n)+m)
zremrangebyrank key start end # 删除指定排名内的升序元素 o(log(n)+m)
zremrangebyrank user:1:rangking 1 2 # 删除升序排名中1到2的元素
zremrangebyscore key minScore maxScore # 删除指定分数内的升序元素 o(log(n)+m)
zremrangebyscore user:1:ranking 90 210 # 删除分数90到210之间的元素
# 补充
zrevrank #从高到低排序
zrevrange #从高到低排序取一定范围
zrevrangebyscore #返回指定分数范围内的降序元素
zinterstore #对两个有序集合交集
zunionstore #对两个有序集合求并集
三、高级用法之慢查询
# 两个重要参数:
slowlog-max-len 慢查询队列的长度
slowlog-log-slower-than=0 时间慢于这个时间,就记录命令
# 配置
# 设置记录所有命令
config set slowlog-log-slower-than 0
# 最多记录100条
config set slowlog-max-len 100
# 持久化到本地配置文件
config rewrite
# 实操
slowlog get [n] #获取慢查询队列
'''
日志由4个属性组成:
1)日志的标识id
2)发生的时间戳
3)命令耗时
4)执行的命令和参数
'''
slowlog len #获取慢查询队列长度
slowlog reset #清空慢查询队列
四、高级用法之pipline与事务
# 通过管道支持弱事务
Redis的pipeline(管道)功能在命令行中没有,但redis是支持pipeline的,而且在各个语言版的client中都有相应的实现
将一批命令,批量打包,在redis服务端批量计算(执行),然后把结果批量返回
1次pipeline(n条命令)=1次网络时间+n次命令时间
import redis
pool = redis.ConnectionPool(host='', port=6379)
r = redis.Redis(connection_pool=pool)
# pipe = r.pipeline(transaction=False)
# 创建pipeline
pipe = r.pipeline(transaction=True)
# 开启事务
pipe.multi()
pipe.set('name', 'lqz')
# 其他代码,可能出异常
pipe.set('role', 'nb')
pipe.execute()
四、高级用法之发布订阅
# 发布者/订阅者/频道
发布者发布了消息,所有的订阅者都可以收到,就是生产者消费者模型(后订阅了,无法获取历史消息)
# API
publish channel message # 发布命令
publish souhu:tv "hello world" # 在souhu:tv频道发布一条hello world 返回订阅者个数
subscribe [channel] # 订阅命令,可以订阅一个或多个
subscribe souhu:tv # 订阅sohu:tv频道
unsubscribe [channel] # 取消订阅一个或多个频道
unsubscribe sohu:tv # 取消订阅sohu:tv频道
psubscribe [pattern...] # 订阅模式匹配
psubscribe c* # 订阅以c开头的频道
unpsubscribe [pattern...] # 按模式退订指定频道
pubsub channels # 列出至少有一个订阅者的频道,列出活跃的频道
pubsub numsub [channel...] # 列出给定频道的订阅者数量
pubsub numpat # 列出被订阅模式的数量
五、高级用法之Bitmap
# 字符的二进制形式
set hello big
setbit hello 7 1
# 独立用户统计
1 使用set和Bitmap对比
2 1亿用户,5千万独立(1亿用户量,约5千万人访问,统计活跃用户数量)
数据类型 每个userid占用空间 需要存储用户量 全部内存量
set 32位(假设userid是整形,占32位) 5千万 32位*5千万=200MB
bitmap 1位 1亿 1位*1亿=12.5MB
# 假设有10万独立用户,使用位图还是占用12.5mb,使用set需要32位*1万=4MB
# 相关命令
set hello big #放入key位hello 值为big的字符串
getbit hello 0 #取位图的第0个位置,返回0
getbit hello 1 #取位图的第1个位置,返回1 如上图
# 我们可以直接操纵位
setbit key offset value #给位图指定索引设置值
setbit hello 7 1 #把hello的第7个位置设为1 这样,big就变成了cig
setbit test 50 1 #test不存在,在key为test的value的第50位设为1,那其他位都以0补
bitcount key [start end] #获取位图指定范围(start到end,单位为字节,注意按字节一个字节8个bit为,如果不指定就是获取全部)位值为1的个数
bitop op destkey key [key...] #做多个Bitmap的and(交集)/or(并集)/not(非)/xor(异或),操作并将结果保存在destkey中
bitop and after_lqz lqz lqz2 #把lqz和lqz2按位与操作,放到after_lqz中
bitpos key targetBit start end #计算位图指定范围(start到end,单位为字节,如果不指定是获取全部)第一个偏移量对应的值等于targetBit的位置
bitpos lqz 1 # big 对应位图中第一个1的位置,在第二个位置上,由于从0开始返回1
bitpos lqz 0 # big 对应位图中第一个0的位置,在第一个位置上,由于从0开始返回0
bitpos lqz 1 1 2 # 返回9:返回从第一个字节到第二个字节之间 第一个1的位置,看上图,为9
六、HyperLogLog
基于HyperLogLog算法:极小的空间完成独立数量统计
详情地址: http://www.liuqingzheng.top/db/Redis系列/03-Redis系列之-高级用法/
pfadd key element # 向hyperloglog添加元素,可以同时添加多个
pfcount key # 计算hyperloglog的独立总数
# 日活,月活的统计,统计个数,不重复
百万级别独立用户统计,百万条数据只占15k
错误率 0.81%
无法取出单条数据,只能统计个数
七、GEO地理位置信息
# GEO(地理信息定位):存储经纬度,计算两地距离,范围等
# 增加地理位置
geoadd key longitude latitude member # 增加地理位置信息
geoadd cities:locations 116.28 39.55 beijing #把北京地理信息天津到cities:locations中
geoadd cities:locations 117.12 39.08 tianjin
geoadd cities:locations 114.29 38.02 shijiazhuang
geoadd cities:locations 118.01 39.38 tangshan
geoadd cities:locations 115.29 38.51 baoding
# 获取北京的地理位置信息
geopos cities:locations beijing
# 通过经纬度----》转成位置
# 获取两个地点的距离
geodist cities:locations beijing tianjin km
# 获取某个位置方圆几公里的城市
georadiusbymember cities:locations beijing 150 km
八、持久化
8.1 rdb方法
redis的所有数据保存在内存中,对数据的更新将异步的保存到硬盘上
# 持久化方案
快照:某时某刻数据的一个完成备份,
-mysql的Dump
-redis的RDB
写日志:任何操作记录日志,要恢复数据,只要把日志重新走一遍即可
-mysql的 Binlog
-Redis的 AOF
# rdb方案:触发---》三种
-手动同步
save
-手动异步
bgsave
-配置文件
save 900 1
save 300 10
save 60 10000
#rdb最佳配置
save 60 5
dbfilename dump.rdb
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
8.2 aof方案
# AOF的三种策略
always:redis–》写命令刷新的缓冲区—》每条命令fsync到硬盘—》AOF文件
everysec(默认值):redis——》写命令刷新的缓冲区—》每秒把缓冲区fsync到硬盘–》AOF文件
no:redis——》写命令刷新的缓冲区—》操作系统决定,缓冲区fsync到硬盘–》AOF文件
# AOF 重写
本质就是把过期的,无用的,重复的,可以优化的命令,来优化,重新启动进程,优化aof日志文件
这样可以减少磁盘占用量,加速恢复速度
# 最佳配置
appendonly yes
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite yes