python操作redis
Python 使用 Redis 相对比较简单,Python 专门提供了操作 Redis 的第三方模块,即 redis 模块,该模块可以直接使用 Python 包管理工具pip
来安装。
安装redis模块 pip3 install redis
1 Python操作Redis之普通连接
redis-py提供两个类Redis和StrictRedis用于实现Redis的命令,StrictRedis用于实现大部分官方的命令,并使用官方的语法和命令,Redis是StrictRedis的子类,用于向后兼容旧版本的redis-py。
import redis
# 本地连接,创建数据库连接对象
conn = redis.Redis(host='127.0.0.1',port=6379,db=0,password='123456')
# 通过链接对象操作redis命令函数
ret=conn.get('name')
2 Python操作Redis之连接池
redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例共享一个连接池。
比如:项目一启动,先建一百个连接放到一个池子(就是一个列表),操作时从池子随机拿出一个连接发请求,用完再放回池子。
下面示例,实现了多个 Redis 实例共享一个连接池,代码如下:
import redis
# 创建连接池并连接到redis,并设置最大连接数量;decode_responses=True把二进制转成对应的数据类型
# POOL必须是单例,作为模块单独放一个文件,其他文件只需要导入POOL使用即可,都是从这个池子拿出连接
POOL = redis.ConnectionPool(host='127.0.0.1',port=6379,max_connections=100,decode_responses=True)
# 第一个客户端访问
conn1 = redis.Redis(connection_pool=POOL) # 只要执行这一句话,就是从池中拿出一个连接
conn1.set('name', 'egon')
# 第二个客户端访问
conn2 = redis.Redis(connection_pool=POOL)
conn2.get('name')
连接池的作用:当有新的客户端请求连接时,只需要去连接池获取一个连接即可,实际上就是把一个连接共享给多个客户端使用,这样就节省了每次连接所耗费的时间。
3 字符串操作
String操作,redis中的String在在内存中按照一个name对应一个value来存储
conn.set(name, value, ex=None, px=None, nx=False, xx=False)
在Redis中设置值,默认,不存在则创建,存在则修改
参数:
ex,过期时间(秒)
px,过期时间(毫秒)
nx,如果设置为True,则只有name不存在时,则只有name不存在则创建,存在则不执行操作
xx,如果设置为True,则只有name存在时,则只有name存在时则修改,不存在则不执行操作
conn.mset(*args, **kwargs)
字典形式传入k:v键值对,批量设置值
单条设置,设置一条连一次,mset一次连接执行多条,避免IO操作
如:
mset(k1='v1', k2='v2')
或
mset({'k1': 'v1', 'k2': 'v2'})
conn.get(name)
获取值
conn.mget(keys, *args)
列表传入存储的name,批量获取,如果name不存返回None
如:
mget('k1', 'k2')
或
mget(['k3', 'k4'])
conn.getset(name, value)
把存在的name设置新值,并返回旧值
conn.getrange(key, start, end)
获取子序列(根据字节获取,非字符),根据字节切片获取数据,顾头顾尾(前闭后闭区间)
参数:
name,Redis 的 name
start,起始位置(字节)
end,结束位置(字节)
# 如: "刘清政" ,0-3表示 "刘"
# 如果字符串很长,从redis切片拿出一部分,比全部拿出自己切片更省内存
conn.setrange(name, offset, value)
修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加)
offset指定索引,新的value有几个字符就从offset开始向后替换几个
参数:
offset,字符串的索引,字节(一个汉字三个字节)
value,要设置的值
conn.setbit(name, offset, value)
对name对应值的二进制表示的位进行操作
参数:
name,redis的name
offset,位的索引(将值变换成二进制后再进行索引)
value,值只能是 1 或 0
# 注:如果在Redis中有一个对应: n1 = "foo",
那么字符串foo的二进制表示为:01100110 01101111 01101111
所以,如果执行 setbit('n1', 7, 1),则就会将第7位设置为1,
那么最终二进制则变成 01100111 01101111 01101111,即:"goo"
conn.getbit(name, offset)
获取name对应的值的二进制表示中的某位的值 (0或1)
conn.bitcount(key, start=None, end=None)
获取name对应的值的二进制表示中 1 的个数
参数:
key,Redis的name
start,位起始位置
end,位结束位置
# 应用场景
网站用户量巨大,如1亿用户统计在线用户,把用户id放在集合中统计,内存占用过大,value存1亿个bit位, 在线用户计为1,统计1的个数即可
conn.bitop(operation, dest, *keys)
获取多个值,并将值做位运算,将最后的结果保存至新的name对应的值
参数:
operation,AND(并) 、 OR(或) 、 NOT(非) 、 XOR(异或)
dest, 新的Redis的name
*keys,要查找的Redis的name
# 如:
bitop("AND", 'new_name', 'n1', 'n2', 'n3')
# 获取Redis中n1,n2,n3对应的值,然后讲所有的值做位运算(求并集),然后将结果保存 new_name 对应的值中
conn.strlen(name)
返回name对应值的字节长度(一个汉字3个字节)
conn.incr(self, name, amount=1)
自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
应用:统计网站/页面/文章访问量:每访问一次,执行它,数字加1
参数:
name,Redis的name
amount,自增数(必须是整数),amount为负数,则自减
# 注:同incrby
conn.incrbyfloat(self, name, amount=1.0)
自增,amount是浮点型
conn.decr(self, name, amount=1)
自减 name对应的值,当name不存在时,则创建name=amount,否则,则自减。
应用:应用于秒杀
参数:
name,Redis的name
amount,自减数(整数)
conn.append(key, value)
在redis name对应的值后面追加内容
参数:
key, redis的name
value, 要追加的字符串
4 Hash操作
Hash操作,redis中Hash在内存中的存储格式如下图:
conn.hset(name, key, value)
name对应的hash中设置一个键值对
参数:
name,redis的name # name不存在则创建;存在则新增键值对
key,name对应的hash中的key # key不存在则创建键值对; 存在则修改val
value,name对应的hash中的value
# 注:
hsetnx(name, key, value),当name对应的hash中不存在当前key时则创建(相当于添加)
conn.hmset(name, mapping)
在name对应的hash中批量设置键值对
参数:
name,redis的name # name不存在则创建;存在则新增键值对
mapping,字典,如:{'k1':'v1', 'k2': 'v2'} # key不存在则创建键值对; 存在则修改val
# 如:
conn.hmset('hash', {'k1':'v1', 'k2': 'v2'})
conn.hget(name,key)
在name对应的hash中获取根据key获取value,只能取一个
conn.hmget(name, keys, *args)
在name对应的hash中获取多个key的值
参数:
name,reids对应的name
keys,要获取key集合,如:['k1', 'k2', 'k3']
*args,要获取的key,如:k1,k2,k3
# 如:
conn.hmget('hash', ['k1', 'k2'])
或
conn.hmget('hash', 'k1', 'k2')
conn.hgetall(name)
获取name对应hash的所有键值(拿出字典),慎用,一次性取数据不知道多大
conn.hgetall('hash')
conn.hlen(name)
统计name对应的hash中的键值对个数
conn.hkeys(name)
获取name对应的hash中所有的key的值
conn.hvals(name)
获取name对应的hash中所有的value的值
conn.hexists(name, key)
检查name对应的hash是否存在当前传入的key
conn.hdel(name,*keys)
将name对应的hash中指定key的键值对删除
conn.hdel('hash','age','name')
conn.hincrby(name, key, amount=1)
自增name对应的hash中的指定key的值,不存在则创建key=value(amount)
参数:
name,redis中的name
key, hash对应的key
amount,自增数(整数)
# 应用:
一个作者有很多文章,用字符串incr统计每篇文章阅读量,一篇文章对应一个name,会产生大量的redis中的name;
用hincrby,作者id作为name,作者id:{'文章1': '阅读数',‘文章2’: '阅读数'}
conn.hincrbyfloat(name, key, amount=1.0)
自增name对应的hash中的指定key的值,不存在则创建key=amount
参数:
name,redis中的name
key, hash对应的key
amount,自增数(浮点数)
conn.hscan(name, cursor=0, match=None, count=None)
增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而防止内存被撑爆
参数:
name,redis的name
cursor,游标(基于游标分批取获取数据)
match,匹配指定key,默认None 表示所有的key
count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
# 如:
第一次:cursor1, data1 = conn.hscan('hash', cursor=0, match=None, count=None)
第二次:cursor2, data1 = conn.hscan('hash', cursor=cursor1, match=None, count=None)
...
直到返回值cursor的值为0时,表示数据已经通过分片获取完毕
conn.hscan_iter(name, match=None, count=None)
利用yield封装hscan创建生成器,实现分批去redis中获取数据
以后想取出hash类型内所有的数据,不建议用hgetall,建议用hscan_iter
参数:
match,匹配指定key,默认None 表示所有的key
count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
# 如:返回值是一个生成器对象,通过for循环一个一个取出键值对
for item in conn.hscan_iter('hash'):
print item
# 应用:1万条数据,先取100条做成生成器,用完再取100条做成生成器,直到取完为止;内存固定只有100条数据。
5 List操作
List操作,redis中的List在在内存中按照一个name对应一个List来存储。如图:
conn.lpush(name,values)
在name对应的list中添加元素,每个新的元素都添加到列表的最左边,可以只放入一个元素
如:
conn.lpush('list', 11,22,33)
==> [33,22,11]
# 扩展:
# rpush(name, values) 表示从右向左操作
conn.lpushx(name,value)
在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边,只能放入一个元素
# 更多:
# rpushx(name, value) 表示从右向左操作
conn.llen(name)
统计name对应的list元素的个数
conn.linsert(name, where, refvalue, value)
在name对应的列表的某一个值前或后插入一个新值
参数:
name,redis的name
where,BEFORE或AFTER(小写也可以)
refvalue,标杆值,即:在它前后插入数据(如果存在多个标杆值,以找到的第一个为准)
value,要插入的数据
# 如:
ret=conn.linsert('list1','before','3','77777777')
ret=conn.linsert('list1','after','3','66666666')
conn.lset(name, index, value)
对name对应的list中的某一个索引位置重新赋值
参数:
name,redis的name
index,list的索引位置,从0开始计数
value,要设置的值
# 如:
ret=conn.lset('list1',3,'22222')
ret=conn.lset('list1',0,'11111')
conn.lrem(name, value, num)
在name对应的list中删除指定的值, 可能有重复的value,count用来控制删除重复的个数
参数:
name,redis的name
value,要删除的值
num, num=0, 删除列表中所有的指定值;
num=2, 从前到后,删除2个;
num=-2, 从后向前,删除2个
# 如:
ret=conn.lrem('list1',2,'5') # 从前往后删除两个5
ret=conn.lrem('list1',-1,'5') # 从后往前删除1个5
ret=conn.lrem('list1',0,'5') # 删除所有5
conn.lpop(name)
在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素
# 更多:
rpop(name) 表示从右向左操作
conn.lindex(name, index)
在name对应的列表中根据索引获取列表元素
conn.lrange(name, start, end)
在name对应的列表分片获取数据,顾头顾尾(前闭后闭区间)
参数:
name,redis的name
start,索引的起始位置
end,索引结束位置 print(conn.lrange('list1',0,conn.llen('list1')))
conn.ltrim(name, start, end)
在name对应的列表中移除没有在start-end索引之间的值
参数:
name,redis的name
start,索引的起始位置
end,索引结束位置(大于列表长度,则代表不移除任何)
conn.rpoplpush(src, dst)
从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边
取出src列表最右边元素,插入到dst列表最左边,一次网络IO完成两个操作
参数:
src,要取数据的列表的name
dst,要添加数据的列表的name
conn.blpop(keys, timeout)
将多个列表排列,按照从左到右去pop对应列表的元素
lpop加了一个block阻塞,列表元素pop完就阻塞不动,另外一个程序往列表加值,一有值,它又往外pop
参数:
keys,redis的name的集合
timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞
# 更多:
# conn.brpop(keys, timeout),从右向左获取数据
# 应用:
消息队列(生产者消费者模型),两台机器,一台存一台取
爬虫实现简单分布式:一个程序爬网址把url放到redis中,往里rpush,多台机器从redis中取出url爬取数据,用blpop实现简单分布式
conn.brpoplpush(src, dst, timeout=0)
从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧
参数:
src,取出并要移除元素的列表对应的name
dst,要插入元素的列表对应的name
timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞
自定义增量迭代生成器
# 由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要:
# 1、获取name对应的所有列表
# 2、循环列表
# 但是,如果列表非常大,那么就有可能在第一步时就将程序的内存撑爆,所以有必要自定义一个增量迭代的功能:
import redis
conn=redis.Redis(host='127.0.0.1',port=6379)
# conn.lpush('test',*[1,2,3,4,45,5,6,7,7,8,43,5,6,768,89,9,65,4,23,54,6757,8,68])
def scan_list(name, count=2):
index = 0
while True:
# 索引切片,因为顾头顾尾,每次取2个,索引+2(迭代), (0,1)/(2,3)/(4,5)......
# for循环,每取1个值yield挂起
# data_list值取完后-->又进入while循环-->从总的列表中截取-->直到全部取完,return结束掉
data_list = conn.lrange(name, index, count + index - 1)
if not data_list:
return
index += count
for item in data_list:
yield item
# 函数加了yield参数,调用scan_list不会运行函数体代码,而是返回一个生成器对象
# 每next(生成器),触发函数体代码运行,遇到yield停下来,并返回yield后面的值
# 第一次next取出68,挂在for循环这里,再next取出8,for循环5个数取完-->返回whlie循环
for item in scan_list('test', 5):
print('---')
print(item)
6 Set操作
Set操作,Set集合就是不允许重复的列表
conn.sadd(name,values)
name对应的集合中添加元素
conn.scard(name)
获取name对应的集合中元素的个数
conn.sdiff(keys, *args)
在第一个name对应的集合中且不在其他name对应的集合的元素集合
conn.sdiffstore(dest, keys, *args)
获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中
conn.sinter(keys, *args)
获取多个name对应集合的交集
conn.sinterstore(dest, keys, *args)
获取多个name对应的集合的交集,再将其加入到dest对应的集合中
conn.sismember(name, value)
检查value是否是name对应的集合的成员
conn.smembers(name)
获取name对应的集合的所有成员
conn.smove(src, dst, value)
将某个成员从一个集合中移动到另外一个集合
conn.spop(name)
从集合的右侧(尾部)移除一个成员,并将其返回
conn.srandmember(name, numbers)
从name对应的集合中随机获取 numbers 个元素
conn.srem(name, values)
在name对应的集合中删除某些值
conn.sunion(keys, *args)
获取多个name对应的集合的并集
conn.sunionstore(dest,keys, *args)
获取多个name对应的集合的并集,并将结果保存到dest对应的集合中
conn.sscan(name, cursor=0, match=None, count=None)
同hash操作,增量式迭代分批获取元素conn.sscan_iter(name, match=None, count=None)
把sscan做成生成器
有序集合,在集合的基础上,为每个元素排序;元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序。
conn.zadd(name, *args, **kwargs)
在name对应的有序集合中添加元素
# 如:
zadd('zz', 'n1', 1, 'n2', 2)
或
zadd('zz', n1=11, n2=22)
conn.zcard(name)
获取name对应的有序集合元素的数量
conn.zcount(name, min, max)
获取name对应的有序集合中分数 在 [min,max] 之间的个数
conn.zincrby(name, value, amount)
自增name对应的有序集合的 name 对应的分数
conn.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float)
按照索引范围获取name对应的有序集合的元素
参数:
name,redis的name
start,有序集合索引起始位置(非分数)
end,有序集合索引结束位置(非分数)
desc,排序规则,默认按照分数从小到大排序
withscores,是否获取元素的分数,默认只获取元素的值
score_cast_func,对分数进行数据转换的函数
# 更多:
# 从大到小排序
zrevrange(name, start, end, withscores=False, score_cast_func=float)
# 按照分数范围获取name对应的有序集合的元素
zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float)
# 从大到小排序
zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float)
conn.zrank(name, value)
获取某个值在 name对应的有序集合中的排行(从 0 开始)
# 更多:
# zrevrank(name, value),从大到小排序
conn.zrangebylex(name, min, max, start=None, num=None)
当有序集合的所有成员都具有相同的分值时,有序集合的元素会根据成员的值(lexicographical ordering)来进行排序,而这个命令则可以返回给定的有序集合键 key 中, 元素的值介于 min 和 max 之间的成员
对集合中的每个成员进行逐个字节的对比(byte-by-byte compare), 并按照从低到高的顺序,返回排序后的集合成员。如果两个字符串有一部分内容是相同的话,那么命令会认为较长的字符串比较短的字符串要大
参数:
name,redis的name
min,左区间(值)。 + 表示正无限; - 表示负无限; ( 表示开区间; [ 则表示闭区间
min,右区间(值)
start,对结果进行分片处理,索引位置
num,对结果进行分片处理,索引后面的num个元素
# 如:
# ZADD myzset 0 aa 0 ba 0 ca 0 da 0 ea 0 fa 0 ga
r.zrangebylex('myzset', "-", "[ca") 结果为:['aa', 'ba', 'ca']
# 更多:
# 从大到小排序
zrevrangebylex(name, max, min, start=None, num=None)
conn.zrem(name, values)
删除name对应的有序集合中值是values的成员
# 如:zrem('zz', ['s1', 's2'])
conn.zremrangebyrank(name, min, max)
根据排行范围删除
conn.zremrangebyscore(name, min, max)
根据分数范围删除
conn.zremrangebylex(name, min, max)
根据值返回删除
conn.zscore(name, value)
获取name对应有序集合中 value 对应的分数
conn.zinterstore(dest, keys, aggregate=None)
获取两个有序集合的交集,如果遇到相同值不同分数,则按照aggregate进行操作
aggregate的值为: SUM MIN MAX
conn.zunionstore(dest, keys, aggregate=None)
获取两个有序集合的并集,如果遇到相同值不同分数,则按照aggregate进行操作
aggregate的值为: SUM MIN MAX
conn.zscan(name, cursor=0, match=None, count=None, score_cast_func=float)
同hash操作,增量式迭代分批获取元素
conn.zscan_iter(name, match=None, count=None,score_cast_func=float)
把zscan做成生成器,相较于hash新增score_cast_func,用来操作分数
7 其它操作
conn.delete(*names)
删除name对应的数据,跟数据类型无关,可以一次性删除多个name
conn.exists(name)
判断name存不存在,跟数据类型无关,可以判断多个name,返回存在的个数
conn.keys(pattern='*')
根据模型获取redis的name,返回redis中所有的name,慎用,name太多可能会撑爆内存;可以正则匹配
更多:
KEYS * 匹配数据库中所有 key
KEYS h?llo 匹配 hello , hallo 和 hxllo 等
KEYS h*llo 匹配 hllo 和 heeeeello 等
KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo
conn.expire(name ,time)
为redis的某个name设置超时时间
conn.rename(src, dst)
把名字为src的name重命名为dst
conn.move(name, db)
将redis的某个name移动到指定的db库下,redis的db是自动建的,就用默认的
conn.randomkey()
随机获取一个redis的name,不会删除name,应用于抽奖
conn.type(name)
获取name对应值的类型
8 管道
redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)完成一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。
MySQL通过回滚实现事务,redis-py需要有管道来实现事务(一堆命令,一次操作),无法回滚。
import redis
pool = redis.ConnectionPool(host='127.0.0.1', port=6379)
conn = redis.Redis(connection_pool=pool)
pipe = conn.pipeline(transaction=True)
pipe.multi() # 开启事务
pipe.set('name', 'alex') # 操作命令
pipe.set('role', 'sb') # 操作命令
pipe.execute() # 代码执行到execute,才会真正一次性执行上述命令,如上述命令错误,执行不到execute,全部都失败
9 Django中使用redis
方式一:通用方式
utils文件夹下,建立redis_pool.py--->造一个连接池POOL
import redis
POOL = redis.ConnectionPool(host='127.0.0.1', port=6379, password='1234',max_connections=100)
视图函数中使用:
from django.shortcuts import render,HttpResponse
import redis
from utils.redis_pool import POOL
def index(request):
conn = redis.Redis(connection_pool=POOL)
conn.hset('kkk','age',18)
return HttpResponse('设置成功')
def order(request):
conn = redis.Redis(connection_pool=POOL)
conn.hget('kkk','age')
return HttpResponse('获取成功')
通用方式,其他框架也能用,如果想用cache.set,cache.get这种方式存取数据,需要自己写类似django中cache的缓存系统
方式二:
安装django-redis模块 pip3 install django-redis
setting里配置:
django默认支持的数据库缓存是Memcached,不支持redis, 因此第三方库定义了一个RedisCache类;django默认支持的缓存类型,在配置'BACKEND'时,就是通过类实例化,再执行对象的方法;第三方库通过RedisCache类写了同样的方法,因此配置后,所有缓存都存在redis中
# redis配置
CACHES = {
"default": {
"BACKEND": "django_redis.cache.RedisCache",
"LOCATION": "redis://127.0.0.1:6379",
"OPTIONS": {
"CLIENT_CLASS": "django_redis.client.DefaultClient",
"CONNECTION_POOL_KWARGS": {"max_connections": 100}
# "PASSWORD": "123",
}
}
}
使用方式1:使用django的cache,不用考虑数据类型,它用pickle序列化存到缓存,取的时候再反序列化出来,所以传对象也行
from django.core.cache import cache
cache.set('name',user)
使用方式2:使用conn对象,手动操作redis,要考虑数据类型,不同数据类型redis-py的存取方式不同
from django_redis import get_redis_connection
conn = get_redis_connection('default') # 去配置文件的池中拿一个连接
print(conn.hgetall('xxx'))