1 GEO地理位置信息
| |
| -根据经纬度---》确定具体地址的---》高德开放api---》返回具体地址 |
| |
| |
| |
| 比如:两个经纬度之间距离 (直线距离) |
| 比如:统计某个经纬度范围内有哪些好友,餐馆 |
| |
| |
| |
| |
| -跟后端没关系:只需要存 |
| -app,有定位功能 |
| -网页,集成了高德地图,定位功能 |
| |
| |
| |
| geoadd key 经度 纬度 名字 |
| |
| geoadd cities:locations 116.28 39.55 beijing |
| |
| geopos cities:locations beijing |
| |
| |
| geodist cities:locations beijing tianjin km |
| |
| |
| georadiusbymember cities:locations beijing 150 km |
| |
| |
| |
1 持久化方案
| |
| redis的所有数据保存在内存中,把内存中的数据同步到硬盘上这个过程称之为持久化 |
| |
| |
| 快照:某时某刻数据的一个完成备份 |
| -mysql的Dump |
| -redis的RDB |
| 写日志:任何操作记录日志,要恢复数据,只要把日志重新走一遍即可 |
| -mysql的 Binlog |
| -Redis的 AOF |
| |
| |
1.1 RDB
| |
| -方式一:通过命令---》同步操作 |
| save:生成rdb持久化文件 |
| -方式二:异步持久化---》不会阻塞住其他命令的执行 |
| bgsave |
| -方式三:配置文件配置--》这个条件触发,就执行bgsave |
| save 900 1 |
| save 300 10 |
| save 60 10000 |
| dbfilename dump.rdb |
| dir "/root/redis-6.2.9/data" |
| 如果60s中改变了1w条数据,自动生成rdb |
| 如果300s中改变了10条数据,自动生成rdb |
| 如果900s中改变了1条数据,自动生成rdb |
| |
1.2 aof方案
| |
| |
| |
| |
| |
| 日志不是直接写到硬盘上,而是先放在缓冲区,缓冲区根据一些策略,写到硬盘上 |
| always:redis–》写命令刷新的缓冲区—》每条命令fsync到硬盘—》AOF文件 |
| everysec(默认值):redis——》写命令刷新的缓冲区—》每秒把缓冲区fsync到硬盘–》AOF文件 |
| no:redis——》写命令刷新的缓冲区—》操作系统决定,缓冲区fsync到硬盘–》AOF文件 |
| |
| |
| |
| 随着命令的逐步写入,并发量的变大, AOF文件会越来越大,通过AOF重写来解决该问题 |
| 本质就是把过期的,无用的,重复的,可以优化的命令,来优化,这样可以减少磁盘占用量,加速恢复速度 |
| |
| |
| |
| auto-aof-rewrite-min-size:500m |
| auto-aof-rewrite-percentage:增长率 |
| |
| |
| |
| appendonly yes |
| appendfilename "appendonly.aof" |
| appendfsync everysec |
| no-appendfsync-on-rewrite yes |
| |
1.3 混合持久化
| |
| |
| |
| |
| |
| |
| |
| |
| appendonly yes |
| |
| auto-aof-rewrite-percentage 100 |
| auto-aof-rewrite-min-size 64mb |
| |
| aof-use-rdb-preamble yes |
| |
| save "" |
| |
| |
| |
| |
2 主从复制原理和方案
| |
| 可能会有以下问题: |
| 1 机器故障 |
| 2 容量瓶颈 |
| 3 QPS瓶颈 |
| |
| |
| 一主一从,一主多从 |
| 做读写分离 |
| 做数据副本 |
| 提高并发量 |
| |
| 一个master可以有多个slave |
| 一个slave只能有一个master |
| 数据流向是单向的,从master到slave,从库只能读,不能写,主库既能读又能写 |
| |
| |
| |
| 1. 副本(从)库通过slaveof 127.0.0.1 6379命令,连接主库,并发送SYNC给主库 |
| 2. 主库收到SYNC,会立即触发BGSAVE,后台保存RDB,发送给副本库 |
| 3. 副本库接收后会应用RDB快照,load进内存 |
| 4. 主库会陆续将中间产生的新的操作,保存并发送给副本库 |
| 5. 到此,我们主复制集就正常工作了 |
| 6. 再此以后,主库只要发生新的操作,都会以命令传播的形式自动发送给副本库. |
| 7. 所有复制相关信息,从info信息中都可以查到.即使重启任何节点,他的主从关系依然都在. |
| 8. 如果发生主从关系断开时,从库数据没有任何损坏,在下次重连之后,从库发送PSYNC给主库 |
| 9. 主库只会将从库缺失部分的数据同步给从库应用,达到快速恢复主从的目的 |
| |
| |
| |
| |
| 如果不开有可能,主库重启操作,造成所有主从数据丢失! |
| |
| |
| |
| |
| |
| |
| |
| -1 命令方式,在从库上执行 |
| slaveof 127.0.0.1 6379 |
| |
| |
| slaveof no one |
| |
| -2 配置文件方式,在从库加入 |
| slaveof 127.0.0.1 6379 |
| slave-read-only yes |
| autpass 123456 |
| |
| |
| |
| min-slaves-to-write 1 |
| min-slaves-max-lag 3 |
| |
3 哨兵高可用
| |
| |
| |
| |
| |
| |
| |
| |
| |
| |
| |
| 1 多个sentinel发现并确认master有问题 |
| 2 选举触一个sentinel作为领导 |
| 3 选取一个slave作为新的master |
| 4 通知其余slave成为新的master的slave |
| 5 通知客户端主从变化 |
| 6 等待老的master复活成为新master的slave |
| |
| |
| |
| |
| 第一步:先搭建一主两从 |
| 第二步:哨兵配置文件,启动哨兵(redis的进程,也要监听端口,启动进程有配置文件) |
| port 26379 |
| daemonize yes |
| dir /root/redis/data |
| bind 0.0.0.0 |
| logfile "redis_sentinel.log" |
| sentinel monitor mymaster 127.0.0.1 6379 2 |
| sentinel down-after-milliseconds mymaster 30000 |
| |
| |
| port 26390 |
| daemonize yes |
| dir /root/redis/data1 |
| bind 0.0.0.0 |
| logfile "redis_sentinel.log" |
| sentinel monitor mymaster 127.0.0.1 6379 2 |
| sentinel down-after-milliseconds mymaster 30000 |
| |
| |
| port 26381 |
| daemonize yes |
| dir /root/redis/data2 |
| bind 0.0.0.0 |
| logfile "redis_sentinel.log" |
| sentinel monitor mymaster 127.0.0.1 6379 2 |
| sentinel down-after-milliseconds mymaster 30000 |
| |
| 第三步:启动三个哨兵 |
| |
| ./src/redis-sentinel ./sentinal_26379.conf |
| ./src/redis-sentinel ./sentinal_26380.conf |
| ./src/redis-sentinel ./sentinal_26381.conf |
| |
| 第四步:停止主库,发现80变成了主库,以后79启动,变成了从库 |
| |
1 集群原理及搭建
| |
| 1 并发量:单机redis qps为10w/s,但是我们可能需要百万级别的并发量 |
| 2 数据量:机器内存16g--256g,如果存500g数据呢? |
| |
| |
| |
| |
| |
| |
| |
| 假设全量的数据非常大,500g,单机已经无法满足,我们需要进行分区,分到若干个子集中 |
| |
| 哈希分布 |
| 顺序分布 |
| |
| 原理:100个数据分到3个节点上 1--33第一个节点;34--66第二个节点;67--100第三个节点(很多关系型数据库使用此种方式) |
| |
| |
| 原理:hash分区: 节点取余 ,假设3台机器, hash(key)%3,落到不同节点上 |
| |
| |
| 客户端分片,通过hash+取余 |
| 节点伸缩,数据节点关系发生变化,导致影响数据迁移过大 |
| 迁移数量和添加节点数量有关:建议翻倍扩容 |
| |
| 每个节点负责一部分数据,对key进行hash,得到结果在node1和node2之间,就放到node2中,顺时针查找 |
| |
| 客户端分片:哈希+顺时针(优化取余) |
| 节点伸缩:只影响临近节点,但是还有数据迁移的情况 |
| 伸缩:保证最小迁移数据和无法保证负载均衡(这样总共5个节点,数据就不均匀了),翻倍扩容可以实现负载均衡 |
| |
| 预设虚拟槽:每个槽映射一个数据子集,一般比节点数大 |
| 良好的哈希函数:如CRC16 |
| 服务端管理节点、槽、数据:如redis cluster(槽的范围0–16383) |
| |
| |
| |
| |
| |
| 对key进行hash得到数字对16383取余----》就知道这个数据是归哪个槽管理的---》节点管理哪些槽是知道的---》数据存到哪个节点就知道了 |
| |
| |
| |
| |
1.1 集群搭建
| |
| 节点(某一台机器),meet(节点跟节点之间通过meet通信),指派槽(16384个槽分给几个节点),复制(主从赋值),高可用(主节点挂掉,从节点顶上) |
| |
| |
| |
| |
| port 7000 |
| daemonize yes |
| dir "/root/redis/data/" |
| logfile "7000.log" |
| |
| cluster-enabled yes |
| cluster-node-timeout 15000 |
| cluster-config-file nodes-7000.conf |
| cluster-require-full-coverage yes |
| |
| |
| 快速生成其他配置 |
| sed 's/7000/7001/g' redis-7000.conf > redis-7001.conf |
| sed 's/7000/7002/g' redis-7000.conf > redis-7002.conf |
| sed 's/7000/7003/g' redis-7000.conf > redis-7003.conf |
| sed 's/7000/7004/g' redis-7000.conf > redis-7004.conf |
| sed 's/7000/7005/g' redis-7000.conf > redis-7005.conf |
| |
| |
| |
| ./src/redis-server ./redis-7000.conf |
| ./src/redis-server ./redis-7001.conf |
| ./src/redis-server ./redis-7002.conf |
| ./src/redis-server ./redis-7003.conf |
| ./src/redis-server ./redis-7004.conf |
| ./src/redis-server ./redis-7005.conf |
| ps -ef |grep redis |
| |
| |
| ./src/redis-cli --cluster create --cluster-replicas 1 127.0.0.1:7000 127.0.0.1:7001 127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005 |
| |
| |
| |
| redis-cli -p 7000 cluster info |
| redis-cli -p 7000 cluster nodes |
| redis-cli -p 7000 cluster slots |
| |
| |
| |
| ./src/redis-cli -p 7000 -c |
| |

1.2 集群扩容
| |
| sed 's/7000/7006/g' redis-7000.conf > redis-7006.conf |
| sed 's/7000/7007/g' redis-7000.conf > redis-7007.conf |
| |
| ./src/redis-server ./redis-7006.conf |
| ./src/redis-server ./redis-7007.conf |
| |
| |
| ./src/redis-cli --cluster add-node 127.0.0.1:7006 127.0.0.1:7000 |
| ./src/redis-cli --cluster add-node 127.0.0.1:7007 127.0.0.1:7000 |
| |
| |
| ./src/redis-cli -p 7007 cluster replicate baf261f2e6cb2b0359d25420b3ddc3d1b8d3bb5a |
| |
| |
| ./src/redis-cli --cluster reshard 127.0.0.1:7000 |
| -迁移4096个槽 |
| -7006的机器接收槽 |
| -all |
1.3 集群缩容
| |
| redis-cli --cluster reshard --cluster-from baf261f2e6cb2b0359d25420b3ddc3d1b8d3bb5a --cluster-to 050bfd3608514d4db5d2ce5411ef5989bbe50867 --cluster-slots 1365 127.0.0.1:7000 |
| yes |
| |
| redis-cli --cluster reshard --cluster-from baf261f2e6cb2b0359d25420b3ddc3d1b8d3bb5a --cluster-to 9cb2a9b8c2e7b63347a9787896803c0954e65b40 --cluster-slots 1366 127.0.0.1:7001 |
| yes |
| |
| redis-cli --cluster reshard --cluster-from baf261f2e6cb2b0359d25420b3ddc3d1b8d3bb5a --cluster-to d3aea3d0b4cf90f58252cf3bcd89530943f52d36 --cluster-slots 1366 127.0.0.1:7002 |
| yes |
| |
| |
| |
| ./src/redis-cli --cluster del-node 127.0.0.1:7000 9c2abbfaa4d1fb94b74df04ce2b481512e6edbf3 |
| ./src/redis-cli --cluster del-node 127.0.0.1:7000 baf261f2e6cb2b0359d25420b3ddc3d1b8d3bb5a |
| |
| |
本文作者:岳宗柯
本文链接:https://www.cnblogs.com/yuezongke/p/17652982.html
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现