今日内容概要
- 发布订阅
- bitmap位图
- HyperLogLog
- GEO地理位置信息
- 持久化rdb
- 持久化aof
- 主从复制
内容详细
1、发布订阅
publish lqz:channel "hello world"
subscribe lqz:channel
publish lqz:channel "hello world"
消息队列---》多个客户端抢,谁抢到是谁的
发布订阅---》多个客户端都能收到
基本所有的专业的消息队列都支持发布订阅---》往消息队列中放一条消息,其实是消息队列这个软件负责把消息复制了多份,分别放到了订阅者订阅的队列中
2、bitmap位图
set name big
getbit name 0
setbit name 7 1
bitcount name 0 3
-用户id号,一般是自增数字----》假设10亿的用户量
-统计日活跃用户---》只要用户登录了就把用户id放到集合中,统计集合大小即可--》大数据量非常占空间
-go中:int8----》能表示数字范围 8个比特位 能表示数字范围:2的7次方-1
int类型:
int32----》2的31次方-1
-假设活跃用户5千万:
-使用集合:32位*5千万=200MB
-使用bitmap:1位*1亿=12.5MB
1 位图类型是string类型,最大512M
2 使用 setbit时偏移量如果过大,会有较大消耗
3 位图不是绝对好用,需要合理使用
3、HyperLogLog
极小的空间完成独立数量统计---->本质还是字符串
pfadd key element
pfcount key
pfmerge destroy sourcekey1 sourcekey2
-HyperLogLog只能放,不能取,只能做统计,和去重,占得空间比set小的都得多
-百万级别独立用户统计,百万条数据只占15k
-错误率 0.81%
-无法取出单条数据,只能统计个数

3.1 布隆过滤器
是一个通过多哈希函数映射到一张表的数据结构,能够快速的判断一个元素在一个集合内是否存在,具有很好的空间和时间效率
from pybloom_live import ScalableBloomFilter
bloom = ScalableBloomFilter(initial_capacity=100, error_rate=0.001, mode=ScalableBloomFilter.LARGE_SET_GROWTH)
url = "www.cnblogs.com"
url2 = "www.liuqingzheng.top"
bloom.add(url)
print(url in bloom)
print(url2 in bloom)
from pybloom_live import BloomFilter
bf = BloomFilter(capacity=1000)
url='www.baidu.com'
bf.add(url)
print(url in bf)
print("www.liuqingzheng.top" in bf)
https://zhuanlan.zhihu.com/p/355538331
from ctypes import cdll
lib = cdll.LoadLibrary('./s1.so')
lib.openVideo()
4、GEO地理位置信息
GEO(地理信息定位):存储经纬度,计算两地距离,范围等,计算你跟xx店之间距离是多少,计算你方圆5公里内有多少你关注美女----》直线距离,不是路线距离
geoadd redis的key 经度 纬度 名字
geoadd cities:locations 116.28 39.55 beijing
geoadd cities:locations 117.12 39.08 tianjin
geoadd cities:locations 114.29 38.02 shijiazhuang
geoadd cities:locations 118.01 39.38 tangshan
geoadd cities:locations 115.29 38.51 baoding
geopos cities:locations beijing
geodist cities:locations beijing tianjin km
georadiusbymember cities:locations beijing 100 km
5、持久化rdb
rdb,aof,混合持久化(rdb+aof)-->恢复更快
1 快照:某时某刻数据的一个完成备份
-mysql的Dump
-redis的RDB
2 写日志:任何操作记录日志,要恢复数据,只要把日志重新走一遍即可
-mysql的 Binlog
-Redis的 AOF
-第一种:客户端命令敲---》 save ---》同步,阻塞当前线程,把当前内存中数据保存到硬盘上
-redis的工作路径下会多出dump.rdb
-下次再启动会自动加载
-第二种:客户端命令敲---》 bgsave ---》异步保存
-第三种:配置文件
'''
自动(通过配置)
配置 seconds changes
save 900 1
save 300 10
save 60 10000
如果60s中改变了1w条数据,自动生成rdb
如果300s中改变了10条数据,自动生成rdb
如果900s中改变了1条数据,自动生成rdb
以上三条符合任意一条,就自动生成rdb,内部使用bgsave
'''
save 60 2
dbfilename lqz.rdb
6、持久化aof
always:redis–》写命令刷新的缓冲区—》每条命令fsync到硬盘—》AOF文件
everysec(默认值):redis——》写命令刷新的缓冲区—》每秒把缓冲区fsync到硬盘–》AOF文件
no:redis——》写命令刷新的缓冲区—》操作系统决定,缓冲区fsync到硬盘–》AOF文件
随着命令的逐步写入,并发量的变大, AOF文件会越来越大,通过AOF重写来解决该问题
本质就是把过期的,无用的,重复的,可以优化的命令,来优化
这样可以减少磁盘占用量,加速恢复速度
appendonly yes
appendfilename appendonly.aof
appendfsync everysec
no-appendfsync-on-rewrite yes
auto-aof-rewrite-min-size = 10
auto-aof-rewrite-percentage= 2
appendonly yes
appendfilename appendonly.aof
appendfsync everysec
no-appendfsync-on-rewrite yes
重启Redis时,我们很少使用rdb来恢复内存状态,因为会丢失大量数据。我们通常使用AOF日志重写
AOF重写性能相对rdb来说要慢很多
Redis 4.0 为了解决这个问题,带来了一个新的持久化选项——混合持久化
重启,恢复的时候,使用rdb恢复,有差距的再用aof补上
aof-use-rdb-preamble yes
7、主从复制
机器故障----》
容量瓶颈 ----》100g数据 内存64g,
QPS瓶颈----》
一主一从,一主多从
做读写分离---》写数据写到主库---》读数据从从库读---》压力就小了
做数据副本---》从库和主库数据是完全一样的,主库被火烧了-->从库还有数据
一个maskter可以有多个slave
一个slave只能有一个master
数据流向是单向的,从master到slave
1. 副本库通过slaveof 127.0.0.1 6379命令,连接主库,并发送SYNC给主库
2. 主库收到SYNC,会立即触发BGSAVE,后台保存RDB,发送给副本库
3. 副本库接收后会应用RDB快照
4. 主库会陆续将中间产生的新的操作,保存并发送给副本库
5. 到此,我们主复制集就正常工作了
6. 再此以后,主库只要发生新的操作,都会以命令传播的形式自动发送给副本库.
7. 所有复制相关信息,从info信息中都可以查到.即使重启任何节点,他的主从关系依然都在.
8. 如果发生主从关系断开时,从库数据没有任何损坏,在下次重连之后,从库发送PSYNC给主库
9. 主库只会将从库缺失部分的数据同步给从库应用,达到快速恢复主从的目的
如果不开有可能,主库重启操作,造成所有主从数据丢失!
min-slaves-to-write 1
min-slaves-max-lag 3
在从服务器的数量少于1个,或者三个从服务器的延迟(lag)值都大于或等于3秒时,主服务器将拒绝执行写命令
slaveof 127.0.0.1 6379
slaveof no one
slaveof 127.0.0.1 6379
slave-read-only yes
只需要在从库配置上面两句就可以了
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现