Welcome to kimi's blog

python操作哨兵/集群、缓存击穿/缓存雪崩/缓存穿透、mysql主从、django使用多数据做读写分离

python操作哨兵

采用高可用架构后之后,就不能直接连某一个主库了,当主库可能会挂掉,后面主库就会变成从库。之前连接redis的操作就不能用了

# 原先学的redis的操作
import redis
conn = redis.Redis(host='',port=6379)
conn.set()
conn.close()


# 新的连接哨兵的操作
连接哨兵服务器(主机名也可以用域名)
#10.0.0.200:26379
import redis
from redis.sentinel import Sentinel
# 哨兵的地址和端口
sentinel = Sentinel([('10.0.0.200', 26379),
                     ('10.0.0.200', 26378),
                     ('10.0.0.200', 26377)
         ],socket_timeout=5)

print(sentinel)
# 获取主服务器地址
master = sentinel.discover_master('mymaster')
print(master)

# 获取从服务器地址
slave = sentinel.discover_slaves('mymaster')
print(slave)



# 读写分离
# 获取服务器进行写入
# master = sentinel.master_for('mymaster', socket_timeout=0.5)
# w_ret = master.set('foo', 'bar')

# slave = sentinel.slave_for('mymaster', socket_timeout=0.5)
# r_ret = slave.get('foo')
# print(r_ret)

注意:要写机器的ip地址,不要写127.0.0.1,想在公网用,就写公网ip,python要是在内网中使用,要写内网ip

python操作集群

搭建了集群,python操作也变了

# rediscluster
# pip install redis-py-cluster
from rediscluster import RedisCluster
startup_nodes = [{"host":"127.0.0.1", "port": "7000"},{"host":"127.0.0.1", "port": "7001"},{"host":"127.0.0.1", "port": "7002"}]
# rc = RedisCluster(startup_nodes=startup_nodes,decode_responses=True)
rc = RedisCluster(startup_nodes=startup_nodes)
rc.set("foo", "bar")
print(rc.get("foo"))

缓存优化

redis缓存更新策略

redis本身存储在内存上,当出现内存不够用,存放数据就放不进去,可以采用一些策略,删除一些数据再放新的,如下

# LRU/LFU/FIFO算法剔除:例如maxmemory-policy(到了最大内存,对应的应对策略)

LRU: Least Recently Used,没有被使用时间最长的
LFU: Least Frequenty Used,一定时间段内使用次数最少的
FIFO:First In First Out  先进先出

缓存击穿、缓存雪崩和缓存穿透

缓存穿透

缓存穿透是指缓存和数据库中都没有的数据,而用户不断发起请求。如发起为id为“-1”的数据或id为特别大不存在的数据。这时的用户很可能是攻击者,攻击会导致数据库压力过大。

解决方案:

  1. 接口层增加校验,如用户鉴权校验,id做基础校验,id<=0直接拦截;

  2. 从缓存取不到的数据,在数据库也没有取到,这是也可以将key-value对写成key-null,缓存有效时间可以设置短点,如30秒设置太长会导致正常情况也没法使用),这样可以防止攻击用户反复用同一个id暴力攻击。

  3. 通过布隆过滤器实现

    布隆过滤器

缓存击穿

缓存击穿是指缓存中没有数据,但数据库中有数据(一般是缓存时间到期),这由于并发用户特别多,同时读缓存没有读到数据,又同时去数据库去取数据,引发数据库压力瞬间增大,造成压力过大。

解决方案:

  1. 设置热点数据永远不过期。首页上的热点数据

缓存雪崩

缓存雪崩式指缓存中数据大批量到过期时间,二查询数据量巨大,引起数据库压力大甚至down机。区别与缓存击穿的是,缓存击穿指并发查同一条数据,缓存雪崩是不同数据都过期了,很多数据都查不到从而查数据库。

解决方案:

  1. 缓存数据的过期时间设置随机,防止统一时间大量数据过期现象发生。
  2. 如果缓存数据库是分布式部署,将热点数据均匀分布在不同的缓存数据库中
  3. 设置热点数据永远不过期。

mysql主从

搭建mysql主从复制的目的

  1. 读写分离
  2. 单个实例并发量低,提高并发量
  3. 只在主库写,读数据都去从库读数据

mysql主从原理

步骤一:主库db的更新事件(update、insert、delete)被写到binlog
步骤二:从库发起连接,连接到主库
步骤三:此时主库创建一个binlog dump thread线程,把binlog的内容发送到从库
步骤四:从库启动之后,创建一个I/O线程,读取主库传过来的binlog内容并写入到relay log.
步骤五:还会创建一个SQL线程,从relay log里面读取内容,从Exec_Master_Log_Pos位置开始执行读取到的更新事件,将更新内容写入到slave的db.

image

binlog时mysql的日志,只要mysql启动就会触发

image

搭建mysql主从

准备两台机器 (mysql的docker镜像模拟两台机器)
主库:10.0.0.102 33307
从库:10.0.0.102 33306

1.拉取mysql5.7的镜像
  
2. 创建文件夹,文件(目录映射)
        mkdir /home/mysql
        mkdir /home/mysql/conf.d
        mkdir /home/mysql/data/
        touch /home/mysql/my.cnf
        
        mkdir /home/mysql1
        mkdir /home/mysql1/conf.d
        mkdir /home/mysql1/data/
        touch /home/mysql1/my.cnf
        
3.(重要):编写mysql配置文件(主,从)
  # 主的配置
    [mysqld]
    user=mysql
    character-set-server=utf8
    default_authentication_plugin=mysql_native_password
    secure_file_priv=/var/lib/mysql
    expire_logs_days=7
    sql_mode=STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_ENGINE_SUBSTITUTION
    max_connections=1000
    server-id=100
    log-bin=mysql-bin
    [client]
    default-character-set=utf8

    [mysql]
    default-character-set=utf8
    
    
  # 从库的配置#####
    [mysqld]
    user=mysql
    character-set-server=utf8
    default_authentication_plugin=mysql_native_password
    secure_file_priv=/var/lib/mysql
    expire_logs_days=7
    sql_mode=STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_ENGINE_SUBSTITUTION
    max_connections=1000
    server-id=101  
    log-bin=mysql-slave-bin   
    relay_log=edu-mysql-relay-bin 

    [client]
    default-character-set=utf8

    [mysql]
    default-character-set=utf8

    
4. 启动mysql容器,并做端口和目录映射
	docker run  -di -v /home/mysql/data/:/var/lib/mysql -v /home/mysql/conf.d:/etc/mysql/conf.d -v /home/mysql/my.cnf:/etc/mysql/my.cnf -p 33307:3306 --name mysql-master -e MYSQL_ROOT_PASSWORD=123456 mysql:5.7


   docker run  -di -v /home/mysql1/data/:/var/lib/mysql -v /home/mysql1/conf.d:/etc/mysql/conf.d -v /home/mysql1/my.cnf:/etc/mysql/my.cnf -p 33306:3306 --name mysql-slave -e MYSQL_ROOT_PASSWORD=123456 mysql:5.7

                    
5.连接主库
	mysql -uroot -P33307 -h 10.0.0.102 -p
    #在主库创建用户并授权
    ##创建test用户
    create user 'test'@'%' identified by '123';
    ##授权用户
    grant all privileges on *.* to 'test'@'%' ;
    ###刷新权限
    flush privileges;
    #查看主服务器状态(显示如下图)
    show master status; 

6.连接从库
	mysql -uroot -P33306 -h 10.0.0.102 -p
    #配置详解
    '''
    change master to 
    master_host='MySQL主服务器IP地址', 
    master_user='之前在MySQL主服务器上面创建的用户名', 
    master_password='之前创建的密码', 
    master_log_file='MySQL主服务器状态中的二进制文件名', 
    master_log_pos='MySQL主服务器状态中的position值';
    '''
    change master to master_host='10.0.0.102',master_port=33307,master_user='test',master_password='123',master_log_file='mysql-bin.000003',master_log_pos=0;
    #启用从库
    start slave;
    #查看从库状态(如下图)
    show slave status\G;
   
7. 在主库创建库,创建表,插入数据,看从库

image

image

django使用多数据库做读写分离

# 第一步:配置文件配置多数据库
DATABASES = {
    'default': {
        'ENGINE': 'django.db.backends.sqlite3',
        'NAME': BASE_DIR / 'db.sqlite3',
    },
    'db1': {
        'ENGINE': 'django.db.backends.sqlite3',
        'NAME': BASE_DIR / 'db1.sqlite3',
    }
}

# 第二步:手动读写分离
Book.objects.using('db1').create(name='西游记')

# 第三步,自动读写分离
写一个py文件,db_router.py,写一个类:
class DBRouter(object):
    def db_for_read(self, model, **hints):
        # 多个从库 ['db1','db2','db3']
        return 'db1'

    def db_for_write(self, model, **hints):


        return 'default'
    
    
# 第三步:配置文件配置
DATABASE_ROUTERS = ['mysql_master_demo.db_router.DBRouter', ]

# 以后自动读写分离

# django多数据库(读写分离,分库分表:数据库中间件)
	-1 配置文件中 配置多数据库
    -2 视图函数中,手动使用数据库  using('db1')
    -3 自动读写分离:写一个py文件,文件中有个类,db_for_read,db_for_write
    -4 只要是读操作,就会触发db_for_read,只要是写,改的操作,就会触发db_for_write
posted @ 2023-04-24 16:53  魔女宅急便  阅读(63)  评论(0)    收藏  举报
Title