python中redis的使用
目录
#1 redis 是一个非关系型数据库(区别于mysql关系型数据库,关联关系,外键,表),nosql数据库(not only sql:不仅仅是SQL),数据完全内存存储(速度非常快)
#2 redis就是一个存数据的地方
#3 redis是 key --value 存储形式---》value类型有5大数据类型---》字符串,列表,hash(字典),集合,有序集合
# java:hashMap 存key-value形式
# go:maps 存key-value形式
#4 redis的好处
(1) 速度快,因为数据存在内存中,类似于字典,字典的优势就是查找和操作的时间复杂度都是O(1)
(2) 支持丰富数据类型,支持string,list,set,sorted set,hash
(3) 支持事务,操作都是原子性,所谓的原子性就是对数据的更改要么全部执行,要么全部不执行
(4) 丰富的特性:可用于缓存,消息,按key设置过期时间,过期后将会自动删除
#5 redis 最适合的场景---》主要做缓存---》它又叫缓存数据库
(1)会话缓存(Session Cache)---》存session---》速度快
(2)接口,页面缓存---》把接口数据,存在redis中
(3)队列--->celery使用
(4)排行榜/计数器--->个人页面访问量
(5)发布/订阅
# 6 安装---》c语言写的开源软件---》官方提供源码---》如果是在mac或linux上需要 编译,安装
-redis最新稳定版版本6.x
-win:作者不支持windwos,本质原因:redis很快,使用了io多路复用中的epoll的网络模型,这个模型不支持win,所以不支持(看到高性能的服务器基本上都是基于io多路复用中的epoll的网络模型,nginx),微软基于redis源码,自己做了个redis安装包,但是这个安装包最新只到3.x,又有第三方组织做到最新5.x的安装包
安装包---》编译完成的可执行文件---》下一步安装
linux--》make成可执行文件---》make install 安装
-linux,mac平台安装
# 7 win下载地址
// 最新5.x版本 https://github.com/tporadowski/redis/releases/
// 最新3.x版本 https://github.com/microsoftarchive/redis/releases
一路下一步安装
# mysql 有个图形化客户端-Navicat很好用
# redis 也有很多,推荐你用rdb,https://github.com/uglide/RedisDesktopManager/releases 收费,99元永久,白嫖
# redis纯内存操作,有可能把内存占满了,这个配置是最多使用多少内存
# redis服务的启动与关闭
方式一:win上,就在服务中了,把服务开启即可,在服务中启动关闭
方式二:命令启动,等同于mysqld
redis-server redis.windows-service.conf
redis-server 配置文件
# 客户端连接
-命令行:redis-cli -p 端口 -h 地址
-客户端 :rdb连接
1 python连接redis
# 安装模块:pip install redis
# django中有没有连接池?
-没有,django中一个请求就会创建一个mysql连接,django并发量不高,mysql能撑住
-想在django中使用连接池,有第三方:https://www.cnblogs.com/wangruixing/p/13030755.html
# python实现单例的5种方式
http://liuqingzheng.top/python/%E9%9D%A2%E5%90%91%E5%AF%B9%E8%B1%A1%E9%AB%98%E9%98%B6/19-%E9%9D%A2%E5%90%91%E5%AF%B9%E8%B1%A1%E9%AB%98%E7%BA%A7%E5%AE%9E%E6%88%98%E4%B9%8B%E5%8D%95%E4%BE%8B%E6%A8%A1%E5%BC%8F/
class Person:
pass
p1=Person()
p2=Person()
print(p1 is p2)
# 以模块导入的方式实现单例
# 什么是进程,线程,协程?
# from redis import Redis
# 1 普通连接
# conn = Redis(host="localhost",port=6379,db=0,password=None)
# conn.set('name',"lqz")
# res=conn.get('name')
# print(res)
# 2 连接池连接(以模块导入的方式实现单例)
# import redis
# from redis_pool import POOL
# # 第二步:从池中拿一个连接
# conn=redis.Redis(connection_pool=POOL)
# print(conn.get('name'))
# 多线程演示
from threading import Thread
import redis
import time
from redis_pool import POOL # 真报错吗?不会报错,
def get_name():
conn=redis.Redis(connection_pool=POOL)
print(conn.get('name'))
for i in range(10):
t=Thread(target=get_name)
t.start()
time.sleep(2)
'''
1 咱们这个py作为脚本运行,不能使用相对导入
2 只能使用绝对导入
3 从环境变量中开始到导起
4 在pycharm中右键运行的脚本所在的目录,就会被加入到环境变量
'''
2 redis字符串操作
# 各种锁:https://zhuanlan.zhihu.com/p/489305763
import redis
conn=redis.Redis()
1 set(name, value, ex=None, px=None, nx=False, xx=False)
conn.set('age',19)
ex,过期时间(秒)---->过期时间
px,过期时间(毫秒) ---->过期时间
conn.set('wife','lyf',ex=3)
nx,如果设置为True,则只有name不存在时,当前set操作才执行, 值存在,就修改不了,执行没效果
conn.set('wife','dlrb',nx=True)
xx,如果设置为True,则只有name存在时,当前set操作才执行,值存在才能修改,值不存在,不会设置新值
conn.set('wife','dlrb',xx=True)
2 setnx(name, value)--->等同于conn.set('wife','dlrb',nx=True)
2 setex(name, value, time)--->conn.set('wife','lyf',ex=3)
3 psetex(name, time_ms, value)--->conn.set('wife','lyf',px=3)
4 mset(*args, **kwargs)--》批量设置
conn.mset({'name1':'pyy','age1':20})
5 get(name)
print(conn.get('age1'))
5 mget(keys, *args)
print(conn.mget(['age1','age']))
print(conn.mget('name','age','age1'))
6 getset(name, value)
print(conn.getset('name','dsb')) # 它跟get,再set有什么区别?
7 getrange(key, start, end)
print(conn.getrange('name',0,1)) # 取字节 ,前闭后闭
8 setrange(name, offset, value)
conn.setrange('name',1,'qqq') # dsb--->dqqq
9 setbit(name, offset, value) ---》后面再聊---》独立用户统计---》用户量过亿---》日活
conn.setbit('name',1,0) # 改的是比特位,d 一个byte占8个比特位--》2进制---》10进制---》字符
10 getbit(name, offset)
print(conn.getbit('name',1))
11 bitcount(key, start=None, end=None)
print(conn.bitcount('name',0,1)) # 数字指的是字节,不是比特位
13 strlen(name)
字节(一个byte)和字符(中 ? a 都是一个字符)
面试题:mysql中utf8和utf8mb4有什么区别?
utf8---》不是咱们任务的utf-8,mysql字节的,两个字节表示一个字符---》生僻字,表示存不了
utf8mb4--》utf-8,最多4个字节表示一个字符---》存标签,存生僻字
print(conn.strlen('name')) # 字节--》9--》gbk编码一个中文占2个字节 utf-8编码 大部分一个中文占3个字节,生僻字可能占4
14 incr(self, name, amount=1)--->做计数器--》记录博客访问量--》博客表的文章上加个访问量字段,一旦有一个人访问,数字+1
conn.incr('age') # 不存在并发安全的问题---》redis6.0之前是单线程架构,并发访问操作,实际只排着队一个个来
15 incrbyfloat(self, name, amount=1.0)
16 decr(self, name, amount=1)
conn.decr('age')
17 append(key, value)
conn.append('name','nb')
# 记住:get set strlen
3 redis之hash操作
'''
1 hset(name, key, value)
2 hmset(name, mapping)
3 hget(name,key)
4 hmget(name, keys, *args)
5 hgetall(name)
6 hlen(name)
7 hkeys(name)
8 hvals(name)
9 hexists(name, key)
10 hdel(name,*keys)
11 hincrby(name, key, amount=1)
12 hincrbyfloat(name, key, amount=1.0)
13 hscan(name, cursor=0, match=None, count=None)
14 hscan_iter(name, match=None, count=None)
'''
import redis
conn=redis.Redis()
conn.hset("userinfo",'name','彭于晏')
conn.hset("userinfo_01",mapping={'name':"刘亦菲",'age':18})
2 hmset(name, mapping)---》弃用了-->直接使用hset即可
conn.hmset("userinfo_02",mapping={'name':"刘亦菲",'age':18})
3 hget(name,key)
print(str(conn.hget('userinfo_01','name'),encoding='utf-8'))
print(str(conn.hget('userinfo_01','age'),encoding='utf-8'))
4 hmget(name, keys, *args)
print(conn.hmget('userinfo_01',['name','age']))
print(conn.hmget('userinfo_01','name','age'))
5 hgetall(name)--->慎用,有可能数据量很大,会撑爆内存-->一般我们redis服务器使用内存很大的服务器,应用服务器内存小一些
print(conn.hgetall('userinfo_01'))
6 hlen(name)
print(conn.hlen('userinfo_01')) # 2
7 hkeys(name)
print(conn.hkeys('userinfo_01')) # [b'name', b'age']
8 hvals(name)
print(conn.hvals('userinfo_01')) # [b'\xe5\x88\x98\xe4\xba\xa6\xe8\x8f\xb2', b'18']
9 hexists(name, key)
print(conn.hexists('userinfo_01','name'))
print(conn.hexists('userinfo_01','height'))
10 hdel(name,*keys)
conn.hdel('userinfo_01','name')
11 hincrby(name, key, amount=1)
conn.hincrby('userinfo_01','age')
12 hincrbyfloat(name, key, amount=1.0)
因为hgetall不安全,有可能数据量过大,所以尽量使用,迭代取值
13 hscan(name, cursor=0, match=None, count=None) hash类型无序----》python 字典在3.6以后有序了,如何实现的?
for i in range(1000):
conn.hset('hash_test','id_%s'%i,'鸡蛋%s号'%i)
分批获取,但是由于没有顺序,返回一个cursor,下次基于这个cursor再继续获取
res=conn.hscan('hash_test',0,count=20)
print(res)
res=conn.hscan('hash_test',352,count=20)
print(res)
print(len(res[1]))
14 hscan_iter(name, match=None, count=None) #全取出所有值,分批取,不是一次性全取回来,减小内存占用
res=conn.hscan_iter('hash_test',count=10) # generator
# print(res)
for item in res:
print(item)
print(conn.hgetall('hash_test'))
# hset hget hlen hexists
4 redis之列表操作
'''
1 lpush(name,values)
2 lpushx(name,value)
3 llen(name)
4 linsert(name, where, refvalue, value))
4 r.lset(name, index, value)
5 r.lrem(name, value, num)
6 lpop(name)
7 lindex(name, index)
8 lrange(name, start, end)
9 ltrim(name, start, end)
10 rpoplpush(src, dst)
11 blpop(keys, timeout)
12 brpoplpush(src, dst, timeout=0)
'''
import redis
conn=redis.Redis()
1 lpush(name,values)
conn.lpush('girls','lyf','dlrb') # 图形界面看到的 上面是左, 下面是右
conn.rpush('girls','杨颖')
2 lpushx(name,value) 在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边
conn.lpushx('girls','杨颖1')
conn.lpushx('girl','杨颖1')
3 llen(name)
print(conn.llen('girls'))
4 linsert(name, where, refvalue, value))
conn.linsert('girls','before','lyf','张杰')
conn.linsert('girls','after','lyf','lqz')
4 r.lset(name, index, value) 对name对应的list中的某一个索引位置重新赋值
conn.lset('girls',1,'lqz')
5 r.lrem(name, count,value)
conn.lrem('girls',1,'lqz') # 从左侧删一个
conn.lrem('girls',-1,'lqz') # 从右侧删一个
conn.lrem('girls',0,'lqz') # 全删
6 lpop(name)
res=conn.lpop('girls')
print(res)
r=b'\xe6\x9d\xa8\xe9\xa2\x961'
print(str(r,encoding='utf-8'))
7 lindex(name, index)
print(conn.lindex('girls',1))
8 lrange(name, start, end)
print(conn.lrange('girls',0,1)) # 前闭后闭
9 ltrim(name, start, end) ---》修剪,只保留起始到终止
conn.ltrim('girls',1,2)
10 rpoplpush(src, dst) # 从第一个列表的右侧弹出,放入第二个列表的左侧
11 blpop(keys, timeout) # 阻塞式弹出--》可以做消息队列 -->block-->如果没有值,会一直阻塞
作用,可以实现分布式的系统---》分布式爬虫
爬网页,解析数据,存入数据库一条龙,一个程序做
写一个程序,专门爬网页---》中间通过redis的列表做中转
再写一个程序专门解析网页存入数据库
print(conn.blpop('girls',timeout=1))
12 brpoplpush(src, dst, timeout=0)
# lpush lpop linsert llen blpop
5 redis其他 通用操作,管道
'''
delete(*names)
exists(name)
keys(pattern='*')
expire(name ,time)
rename(src, dst)
move(name, db))
randomkey()
type(name)
'''
import redis
conn=redis.Redis()
# delete(*names)
# conn.delete('name','name1','hash1')
# exists(name)
# print(conn.delete('name'))
# print(conn.delete('age'))
# keys(pattern='*') # 打印所有key * 和 ?
# print(conn.keys())
# print(conn.keys('us*'))
# print(conn.keys('age?'))
# expire(name ,time)
# conn.expire('age',3)
# rename(src, dst)
# conn.rename('wife','girl')
# move(name, db))
# conn.move('girl',3)
# randomkey() # 随机返回一个key
# print(conn.randomkey())
# type(name)
# print(conn.type('age1'))
# print(conn.type('userinfo'))
# 管道---》redis本身是不支持事务的-->有的时候我们要实现类似这种功能:张三-100块钱,李四+100块钱
# 通过管道实现--->把多次操作的命令放到一个管道中,一次性执行,要么都执行了,要么都不执行
# 通过管道可以实现事务
import redis
pool = redis.ConnectionPool()
conn = redis.Redis(connection_pool=pool)
pipe = conn.pipeline(transaction=True)
pipe.multi()
# 以后用pipe代替conn操作
pipe.set('name', 'lqz')
# raise Exception('asdfasdf')
pipe.set('role', 'nb')
# 只是往管道中放了命令,还没执行
pipe.execute() # 一次性执行多条命令
6 django中使用redis
# 方式一 --》自己写
# 使用连接池
# pool.py
import redis
POOL=redis.ConnectionPool(max_connections=10,host="localhost",port=6379)
# 任意位置使用
class TestView(APIView):
def get(self, requeste):
conn=redis.Redis(connection_pool=POOL)
print(conn.get('name'))
return Response('ok')
# 方式二---》使用第三方
# 安装:pip install django-redis
# 在项目配置文件中
CACHES = {
"default": {
"BACKEND": "django_redis.cache.RedisCache",
"LOCATION": "redis://127.0.0.1:6379",
"OPTIONS": {
"CLIENT_CLASS": "django_redis.client.DefaultClient",
"CONNECTION_POOL_KWARGS": {"max_connections": 100}
# "PASSWORD": "123",
}
}
}
# 在使用位置
from django_redis import get_redis_connection
conn=get_redis_connection()
print(conn.get('name'))
# 一旦这么配置了,以后django的缓存也缓存到reids中了
cache.set('asdfasd','asdfas')
# 以后在django中,不用使用redis拿连接操作了,直接用cache做就可以了
# 不需要关注设置的值类型是什么
cache.set('wife',['dlrb','lyf']) # value值可以放任意数据类型
# 底层原理,把value通过pickle转成二进制,以redis字符串的形式存到了redis中
# pickle是python独有的序列化和反序列化,只能python玩,把python中所有数据类型都能转成二进制
通过二进制可以在反序列化成功pyhton中的任意对象
redis读写分离django案例
在缓存库设置好主从复制之后就可以使用了
slaveof 127.0.0.1 6379 # 开启主从复制(写主库的ip+port)
slaveof no one # 取消主从复制
使用django_redis的缓存
在settings.py中
CACHES = {
# 主库负责写
"default": {
"BACKEND": "django_redis.cache.RedisCache",
# 在这配置主库的ip和端口
"LOCATION": "redis://139.224.198.201:6379", # 连接的服务器地址
"OPTIONS": {
"CLIENT_CLASS": "django_redis.client.DefaultClient",
"CONNECTION_POOL_KWARGS": {"max_connections": 100} # 连接池最大个数
}
},
# 从库负责读
"redis1": {
"BACKEND": "django_redis.cache.RedisCache",
# 在这配置从库的ip和端口
"LOCATION": "redis://139.224.198.201:6380", # 连接的服务器地址
"OPTIONS": {
"CLIENT_CLASS": "django_redis.client.DefaultClient",
"CONNECTION_POOL_KWARGS": {"max_connections": 100} # 连接池最大个数
}
},
}
在views.py中
# 测试
class TestAPIView(APIView):
def get(self, request):
# 不写参数默认是连接配置文件里CACHES字典里default对应的库(这里是主库)
conn1 = get_redis_connection()
# 填写配置文件里CACHES字典里从库对应的key,连接的就是从库
conn2 = get_redis_connection(alias='redis1')
# 主库写
conn1.set('name', 'liyan')
# 从库读
name = conn2.get('name')
print(name)
return APIResponse(name)
使用django的缓存
和django_redis一样先在配置文件里配置好参数
class TestAPIView(APIView):
def get(self, request):
# 这么写也是指定配置文件CACHES字典里default对应的库
caches.set('name', 'xixi')
# 填写配置文件里CACHES字典里从库对应的key,连接的就是从库
name = caches['redis1'].get('name')
print(name)
return APIResponse(name)