redis基础
Redis介绍与安装
redis:缓存数据库【大部分时间做缓存,不仅仅可以做缓存】,非关系型数据库【区别于mysql关系型数据库】
-nosql;非关系型的数据库
-c语言写的 服务(监听端口):用来存储数据的,数据是存储在内存中,取值,放值速度非常快,10万并发
key-value形式存储,没有表的概念
版本:
最新:7.x
公司里 5.x比较多
安装:
-mac 源码编译安装
-linux 源码编译安装
-win 微软自己,基于源码,改动,编译成安装包
# 最新5.x版本 https://github.com/tporadowski/redis/releases/
# 最新3.x版本 https://github.com/microsoftarchive/redis/releases
一路下一步,安装完释放出两个命令,会把redis自动加入到服务中
redis-server # mysqld 服务端的启动命令
redis-cli # mysql 客户端的启动命令
# 安装目录
redis-server
redis-cli
redis.windows-service.conf 配置文件
-bind 127.0.0.1 # 服务,跑在的地址
-port 6379 #监听的端口
启动radis
1.方式一:
-在服务中,点击启动,后台启动
2.方式二:使用命令
redis-server 指定配置文件 如果不指定,会默认
客户端连接redia
1.方式一
redis-cli # 默认连接本地的6379端口
2.方式二:
redis-cli -h 地址 -p 端口
3 使用图形化客户端操作
-Redis Desktop Manager :开源的,原来免费,后来收费了 推荐用(mac,win,linux 都有)
-Qt5 qt是个平台,专门用来做图形化界面的
-可以使用c++写
-可以使用python写 pyqt5 使用python写图形化界面 (少量公司再用)
-resp-2022.1.0.0.exe 一路下一步,安装完启动起来
-Redis Client 小众
图形化界面,连接redis 输入地址和端口,点击连接即可
# redis默认有16个库,默认连进去就是第0个
切换数据库
1.连入数据库后执行
select 数据库编号
关闭服务
"""
1.先连接数据库,再关闭redis服务
redis-cli -h ip地址 -p 端口号
关闭服务:shutdown
2)直接连接数据库并关闭redis服务
redis-cli -h ip地址 -p 端口号 -n 数据库编号 -a 密码 shutdown
"""
清空redis数据库
连接数据库执行
flushall
数据持久化
"""
1)配置文件默认配置
save 900 1 # 超过900秒有1个键值对操作,会自动调用save完成数据持久化
save 300 10 # 超过300秒有10个键值对操作,会自动调用save完成数据持久化
save 60 10000 # 超过60秒有10000个键值对操作,会自动调用save完成数据持久化
2)安全机制
# 当redis服务不可控宕机,会默认调用一下save完成数据持久化(如果数据量过大,也可能存在部分数据丢失)
3)主动持久化
>: save # 连入数据库时,主动调用save完成数据持久化
注:数据持久化默认保存文件 dump.rdb,保存路径默认为启动redis服务的当前路径
"""
redis相关配置
"""
1)绑定的ip地址,多个ip用空格隔开
bind 127.0.0.1
2)端口,默认6379,一般不做修改
port 6379
3)是否以守护进程启动,默认为no,一般改为yes代表后台启动(windows系统不支持)
daemonize no
4)定义日志级别,默认值为notice,有如下4种取值:
debug(记录大量日志信息,适用于开发、测试阶段)
verbose(较多日志信息)
notice(适量日志信息,使用于生产环境)
warning(仅有部分重要、关键信息才会被记录)
loglevel notice
5)配置日志文件保持地址,默认打印在命令行终端的窗口上
如果填写 "./redis.log" 就会在启动redis服务的终端所在目录下,用redis.log记录redis日志
logfile ""
eg)终端首先切断到log文件夹所在目录(一般就可以采用redis的安装目录,也可以自定义),再启动reids服务
logfile "./log/redis.log"
6)数据库个数,默认是16个,没特殊情况,不建议修改
databases 16
7)数据持久化
save 900 1 # 超过900秒有1个键值对操作,会自动调用save完成数据持久化
save 300 10 # 超过300秒有10个键值对操作,会自动调用save完成数据持久化
save 60 10000 # 超过60秒有10000个键值对操作,会自动调用save完成数据持久化
8)数据库持久化到硬盘失败,redis会立即停止接收用户数据,让用户知道redis持久化异常,避免数据灾难发生(重启redis即可),默认为yes,不能做修改
stop-writes-on-bgsave-error yes
9)消耗cpu来压缩数据进行持久化,数据量小,但会消耗cpu性能,根据实际情况可以做调整
rdbcompression yes
10)增持cpu 10%性能销毁来完成持久化数据的校验,可以取消掉
rdbchecksum yes
11)持久化存储的文件名称
dbfilename dump.rdb
12)持久化存储文件的路径,默认是启动服务的终端所在目录
dir ./
13)reids数据库密码
requirepass 密码
"""
面试题
radi为什么这么快?
1.纯内存操作
2.网络模型使用IO多路复用(epoll)(可以处理的请求数更多)
3. 6.x之前,单进程,单线程架构,没有线程进程间切换,更少的消耗资源
Redis普通连接和连接池
python相当于客户端,操作redis
# 安装模块:pip install redis
补充:django中操作mysql没有连接池,一个请求就是一个mysql连接
-可能会有问题,并发数过高,导致mysql连接数过高,影响mysql性能
-使用django连接池:https://blog.51cto.com/liangdongchang/5140039
普通连接
安装redis 模块:pip install redis
1.导入模块的Redis
from redis import Redis
2.实例化得到对象
conn = Redis(host="127.0.0.1",port=6379)
3.使用conn操作redis
# 获取name的值
res = conn.get('name') # 注意返回的数据是bytes格式
4.设置值
conn.set(key,velue)
5.关闭
conn.close()
连接池连接
import redis
POOL = redis.ConnectionPool(max_connections=10,host='127.0.0.1',port=6379)
"""
max_connections表示连接池的数量
这句话表示创建一个大小为10的redis连接池
"""
from threading import Thread
def task():
conn = redis.Redis(connection_pool=POOL)
# 使用连接池创建redis的连接
print(conn.get('name'))
for i in range(10):
t = Thread(target=task)
# 创建线程执行task函数
t.start()
# 开始执行线程
# 单例模式:设计模式,23中设计模式
-全局只有一个 这个对象
p1 = Person() 类加括号产生一个对象
p2 = Person() 类再次加括号产生一个新的对象
单例就是类加括号只产生一个对象,单例模式一共有6种方式
-1.模块导入方式
Redis之字符串类型
redis 是key-value形式存储
redis数据放在内存中,如果断电,数据修饰---》需要持久化的方案
5种数据类型,value类型
-字符串:用的最多,做缓存,做计数器
-列表:简单的消息队列
-字典(hash):缓存
-集合:去重
-有序集合:排行榜
set(name,value,ex=None,px=None,nx=False,xx=False)
set表示给redis数据库添加数据,name是键,value是值
在Redis中设置值,默认:不存在则创建,存在则修改
参数:
ex:过期时间(秒)
px:过期时间(毫秒)
nx:如果设置为True,则只有name不存在时,当前set操作才执行,值存在,就修改不了,执行没效果
xx:如果设置为True,则只有name存在时,当前set操作才执行,值存在才能修改,值不存在,不会设置新的
setnx(name,value)
设置值,只有name不存在时,执行设置操作(添加),如果存在,不会修改
setex(name,time,value)
注意:时间要设置在最中间,否则位置传参是不正确的
设置值
参数:time,过期时间(数字秒或者timedelta对象)
psetex(name,time_ms,value)
设置值
参数:
time_ms,过期时间(数据毫秒 或 timedelta对象)
mset(*args,**kwargs)
批量设置值
如:
conn.mset({'k1':'v1','k2':'v2'})
get(name)
获取值
mget(keys,*args)
批量获取
如:
conn.mget('hobby','age')
或
conn.mget(['hobby','age'])
getset(name,value)
设置新值并获取原来的值
getrange(key,start,end)
获取子序列(注意:是根据字节获取,不是字符串)
参数:
name,Redis 的 name
start,起始位置(字节)
end,结束位置(字节)
如: "刘清政" ,0-3表示 "刘"
setrange(name,offset,value)
# 修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加)
# 参数:
# offset,字符串的索引,字节(一个汉字三个字节)
# value,要设置的值
setbit(name,offset,value)
# 对name对应值的二进制表示的位进行操作
# 参数:
# name,redis的name
# offset,位的索引(将值变换成二进制后再进行索引)
# value,值只能是 1 或 0
# 注:如果在Redis中有一个对应: n1 = "foo",
那么字符串foo的二进制表示为:01100110 01101111 01101111
所以,如果执行 setbit('n1', 7, 1),则就会将第7位设置为1,
那么最终二进制则变成 01100111 01101111 01101111,即:"goo"
getbit(name,offset)
获取name对象的值的二进制表示中的某位的值(0或1)
bitcount(key, start=None, end=None)
# 获取name对应的值的二进制表示中 1 的个数
# 参数:
# key,Redis的name
# start,位起始位置
# end,位结束位置
bitop(operation, dest, *keys)
# 获取多个值,并将值做位运算,将最后的结果保存至新的name对应的值
# 参数:
# operation,AND(并) 、 OR(或) 、 NOT(非) 、 XOR(异或)
# dest, 新的Redis的name
# *keys,要查找的Redis的name
# 如:
bitop("AND", 'new_name', 'n1', 'n2', 'n3')
# 获取Redis中n1,n2,n3对应的值,然后讲所有的值做位运算(求并集),然后将结果保存 new_name 对应的值中
strlen(name)
返回name对应值的字节长度(一个汉子3个字节)
如:
conn.strlen('hobby') 篮球就是6个字节
incr(self,name,amount=1)
# 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
# 参数:
# name,Redis的name
# amount,自增数(必须是整数)
# 注:同incrby
incrbyfloat(self, name, amount=1.0)
# 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
# 参数:
# name,Redis的name
# amount,自增数(浮点型)
decr(self,name,amount=1)
自减name对应的值,当name不存在时,则创建name=amout,否则,则自减
参数:
name,Redis的name
amount,自减数(整数,默认是1)
append(key,value)
在redis name对应的值后面追加内容
参数:
key,redis的name
value,要追加的字符
如:
conn.append('age','lqz') 在age对应的值后面添加lqz
redis之列表
lpush(name,values)
在name对应的list中添加元素,每个新的元素都添加到列表的最左边
values:可以写多个值
如:
r.lpush('oo',11,22,33)
保存的顺序为:33,22,11
扩展:
rpush(name,values)
lpushx(name,value)
在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边
更多:
rpushx(name,value)表示从右向左操作
llen(name)
name对应的list元素的个数
linsert(name,where,refvalue,value)
在name对应的列表的某一个值前或后插入一个新值
参数:
name:redis的name
where:BEFORE或AFTER(小写也可以)
refvalue:标杆值,即:在它前后插入数据(如果存在多个标杆值,以找到的第一个为准)
value:要插入的数据
lset(name,index,value)
对name对应的list中的某一个索引位置重新赋值
参数:
name,redis的name
index,list的索引位置
value,要设置的值
lrem(name,value,num)
在name对应的list中删除指定的值
参数:
name,redis的name
value,要删除的值
num,num=0,删除列表中所有的指定值
num=2,从前到后,删除2个
num=-2,从后向前,删除2个
lpop(name)
在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素
更多:
rpop(name):表示从右向左操作
lindex(name,index)
在name对应的列表中根据索引获取列表元素
lrange(name,start,end)
在name对应的列表分片获取数据
参数:
name,redis的name
start,索引的起始位置
end,索引结束位置
rpoplpush(sec,dst)
从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边
参数:
src:要取数据的列表的name
dst:要添加数据的列表的name
blpop(keys,timeout)
将多个列表排列,按照从左到右去pop对应列表的元素
参数:
keys,redis的name的集合
timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞
更多:
brpop(keys,timeout),从右向左获取数据
爬虫实现简单分布式:多个url放到列表里,往里不停放URL,程序循环取值,但是只能一台机器运行取值,可以把url放到redis中,多台机器从redis中取值,爬取数据,实现简单分布式
brpoplpush(src,dst,timeout=0)
# 从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧
# 参数:
# src,取出并要移除元素的列表对应的name
# dst,要插入元素的列表对应的name
# timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞
自定义增量迭代
# 由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要:
# 1、获取name对应的所有列表
# 2、循环列表
# 但是,如果列表非常大,那么就有可能在第一步时就将程序的内容撑爆,所有有必要自定义一个增量迭代的功能:
import redis
conn=redis.Redis(host='127.0.0.1',port=6379)
# conn.lpush('test',*[1,2,3,4,45,5,6,7,7,8,43,5,6,768,89,9,65,4,23,54,6757,8,68])
# conn.flushall()
def scan_list(name,count=2):
index=0
while True:
data_list=conn.lrange(name,index,count+index-1)
if not data_list:
return
index+=count
for item in data_list:
yield item
print(conn.lrange('test',0,100))
for item in scan_list('test',5):
print('---')
print(item)
redis之Hash
hset(name,key,value,mapping)
name对应的hash中设置一个键值对(不存在,则创建,否则,修改)
参数:
name,redis的name
key,name对应的hash中的key
value,name对应的hash的value
mapping:可以批量设置键值对
注:
hsetnx(name,key,value)当name对应的hash中不存在当前key时则创建(相当于添加)
hget(name,key)
在name对应的hash中根据key获取value
hmget(name,keys,*args)
在name对应的hash中获取多个key的值
参数:
name,redis对应的name
keys,要获取的key集合,如:['k1','k2','k3']
*args:要获取的key多余的,如:k1,k2,k3
如:
# r.mget('xx', ['k1', 'k2'])
# 或
# print r.hmget('xx', 'k1', 'k2')
hgetall(name)
获取name对应hash的所有键值,展示是一个字典的形式
print(conn.hgetall('name'))
# {b'girls': b'\xe5\x88\x98\xe4\xba\xa6\xe8\x8f\xb2', b'age': b'18', b'hobby': b'\xe5\x94\xb1\xe6\xad\x8c'}
hlen(name)
获取name对应的hash中键值对的个数
hkeys(name)
获取name对应的hash中所有key的值
hvals(name)
获取name对应的hash中所有value的值
hexists(name,key)
检查name对应的hash是否存在当前传入的key
hdel(name,*keys)
将name对应的hash中指定的key的键值对删除
print(re.hdel('xxx','sex','name'))
hincrby(name, key, amount=1)
自增name对应的hash中的指定key的值,不存在则创建key=amount
参数:
name,redis中的name
key,hash对应的key
amount:自增数(整数)
hincrbyfloat(name, key, amount=1.0)
# 自增name对应的hash中的指定key的值,不存在则创建key=amount
# 参数:
# name,redis中的name
# key, hash对应的key
# amount,自增数(浮点数)
# 自增name对应的hash中的指定key的值,不存在则创建key=amount
hscan(name, cursor=0, match=None, count=None)
# 增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而放置内存被撑爆
# 参数:
# name,redis的name
# cursor,游标(基于游标分批取获取数据)
# match,匹配指定key,默认None 表示所有的key
# count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
# 如:
# 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None)
# 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None)
# ...
# 直到返回值cursor的值为0时,表示数据已经通过分片获取完毕
hscan_iter(name,match=None,count=None)
利用yield封装hscan创建生成器,实现分批去redis中获取数据值
参数;
match:匹配指定key,默认None
redis其他操作
"""
通用操作,不指定类型,所有类型都支持
1.delete(*names)
2.exists(name)
3.keys(pattern='*')
4.expire(name,time)
5.rename(src,dst)
6.move(name,db)
7.randomkey()
8.type(name)
"""
import redis
conn = redis.Redis()
# 1 delete(*names)
# conn.delete('name', 'userinfo2')
# conn.delete(['name', 'userinfo2']) # 不能用它
# conn.delete(*['name', 'userinfo2']) # 可以用它
# 2 exists(name)
# res=conn.exists('userinfo')
# print(res)
# 3 keys(pattern='*')
# res=conn.keys('w?e') # ?表示一个字符, * 表示多个字符
# print(res)
# 4 expire(name ,time)
# conn.expire('userinfo',3)
# 5 rename(src, dst)
# conn.rename('hobby','hobby111')
# 6 move(name, db))
# conn.move('hobby111',8)
# 7 randomkey()
# res=conn.randomkey()
# print(res)
# 8 type(name)
# print(conn.type('girls'))
print(conn.type('age'))
conn.close()
redis管道
事务的四大特性:
原子性
一致性
隔离性
持久性
radis支持事务吗?单实例才支持所谓的事务,支持事务是基于管道的
-执行命令 一条一条执行
-张三 金额-100 conn.decr('zhangsan_je',100)
-这里程序崩了
-李四 金额 +100 conn.incr('lisi_je',100)
-把这两条命令,放到一个管道中,先不执行,执行excute,一次性都执行完成
conn.decr('zhangsan_je',100) conn.incr('李四_je',100)
如何使用:
import redis
conn = redis.Redis()
p = conn.pipeline(transaction=True)
p.multi() # 往管道里面加东西
p.decr('zhangsan_je',100) # 张三金额减去100
raise Exception('崩了')
p.incr('lisi_je',100) # 李四金额加上100
p.execute() # 执行管道里面的东西
conn.close()
django中使用redis
方式一:自定义包方案(通用的,不针对任何框架,所有框架都可以用)
-第一步:写一个pool.py
import redis
POOL = redis.ConnectionPool(max_connections=100)
-第二步:以后在使用的地方,直接导入使用即可
conn = redis.Redis(connection_pool=POOL)
conn.incr('count')
res = conn.get('count')
django使用redis的方案
方案一:django的缓存使用redis 【推荐使用】
-settings.py 中配置
CACHES = {
"default": {
"BACKEND": "django_redis.cache.RedisCache",
"LOCATION": "redis://127.0.0.1:6379",
"OPTIONS": {
"CLIENT_CLASS": "django_redis.client.DefaultClient",
"CONNECTION_POOL_KWARGS": {"max_connections": 100}
# "PASSWORD": "123",
}
}
}
-在使用redis的地方:cache.set('count', res+1)
-pickle序列化后,存入的
代码展示:
from django.core.cache import cache
def test_redis(request):
p=Person()
cache.set('person',p)
p = cache.get('person')
print(p.name)
res = cache.get('count')
cache.set('count', res+1)
return JsonResponse({'count': '今天这个接口被访问的次数为:%s'}, json_dumps_params={'ensure_ascii': False})
方案二:第三方:django-redis模块
from django_redis import get_redis_connection
def test_redis(request):
conn=get_redis_connection()
print(conn.get('count'))
return JsonResponse({'count': '今天这个接口被访问的次数为:%s'}, json_dumps_params={'ensure_ascii': False})
代码展示:
from django_redis import get_redis_connection
def test_redis(request):
conn=get_redis_connection()
print(conn.get('count'))
return JsonResponse({'count': '今天这个接口被访问的次数为:%s'}, json_dumps_params={'ensure_ascii': False})