docker高级篇
docker高级篇
一.Docker复杂安装详说
安装mysql主从复制
1.新建主服务器容器实例3307
1 2 3 4 5 6 | docker run -p 3307:3306 --name mysql-master \ - v /mydata/mysql-master/log : /var/log/mysql \ - v /mydata/mysql-master/data : /var/lib/mysql \ - v /mydata/mysql-master/conf : /etc/mysql \ -e MYSQL_ROOT_PASSWORD=root \ -d mysql:5.7 |
2.进入/mydata/mysql-master/conf目录下新建my.cnf
vim my.cnf
[mysqld] ## 设置server_id,同一局域网中需要唯一 server_id=101 ## 指定不需要同步的数据库名称 binlog-ignore-db=mysql ## 开启二进制日志功能 log-bin=mall-mysql-bin ## 设置二进制日志使用内存大小(事务) binlog_cache_size=1M ## 设置使用的二进制日志格式(mixed,statement,row) binlog_format=mixed ## 二进制日志过期清理时间。默认值为0,表示不自动清理。 expire_logs_days=7 ## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。 ## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致 slave_skip_errors=1062
3.修改完配置后重启master实例
1 | docker restart mysql-master |
4.进入mysql-master容器
1 2 | docker exec -it mysql-master /bin/bash mysql -uroot -proot |
5.master容器实例内创建数据同步用户
1 2 | CREATE USER 'slave' @ '%' IDENTIFIED BY '123456' ; GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave' @ '%' ; |
6.新建从服务器容器实例3308
1 2 3 4 5 6 | docker run -p 3308:3306 --name mysql-slave \ - v /mydata/mysql-slave/log : /var/log/mysql \ - v /mydata/mysql-slave/data : /var/lib/mysql \ - v /mydata/mysql-slave/conf : /etc/mysql \ -e MYSQL_ROOT_PASSWORD=root \ -d mysql:5.7 |
7.进入/mydata/mysql-slave/conf目录下新建my.cnf
vim my.cnf
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | [mysqld] ## 设置server_id,同一局域网中需要唯一 server_id=102 ## 指定不需要同步的数据库名称 binlog-ignore-db=mysql ## 开启二进制日志功能,以备Slave作为其它数据库实例的Master时使用 log-bin=mall-mysql-slave1-bin ## 设置二进制日志使用内存大小(事务) binlog_cache_size=1M ## 设置使用的二进制日志格式(mixed,statement,row) binlog_format=mixed ## 二进制日志过期清理时间。默认值为0,表示不自动清理。 expire_logs_days=7 ## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。 ## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致 slave_skip_errors=1062 ## relay_log配置中继日志 relay_log=mall-mysql-relay-bin ## log_slave_updates表示slave将复制事件写进自己的二进制日志 log_slave_updates=1 ## slave设置为只读(具有super权限的用户除外) read_only=1 |
8.修改完配置后重启slave实例
1 | docker restart mysql-slave |
9.在主数据库中查看主从同步状态
1 | show master status; |
10.进入mysql-slave容器
1 2 | docker exec -it mysql-slave /bin/bash mysql -uroot -proot |
11.在从数据库中配置主从复制
1 2 3 4 5 6 7 | master_host:主数据库的IP地址; master_port:主数据库的运行端口; master_user:在主数据库创建的用于同步数据的用户账号; master_password:在主数据库创建的用于同步数据的用户密码; master_log_file:指定从数据库要复制数据的日志文件,通过查看主数据的状态,获取File参数; master_log_pos:指定从数据库从哪个位置开始复制数据,通过查看主数据的状态,获取Position参数; master_connect_retry:连接失败重试的时间间隔,单位为秒。 |
1 | change master to master_host= '172.17.0.2' ,master_user= 'slave' ,master_password= '123456' ,master_port=3307,master_log_file= 'mall-mysql-bin.000003' ,master_connect_retry=30; |
12.在从数据库中查看主从同步状态
show slave status\G;
14.查看从数据库状态发现已经同步
15.主从复制测试
主机新建库-使用库-新建表-插入数据,ok
从机使用库-查看记录,ok
Redis cluster(集群)模式-docker版哈希槽分区进行数据存储
3主3从redis集群配置
1.关闭防火墙+启动docker后台服务
1 2 | systemctl start docker systemctl stop firewalld |
2.新建6个docker容器redis实例
1 2 3 4 5 6 | docker run -d --name redis-node-1 --net mynetwork --privileged= true - v /data/redis/share/redis-node-1 : /data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6381 docker run -d --name redis-node-2 --net mynetwork --privileged= true - v /data/redis/share/redis-node-2 : /data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6382 docker run -d --name redis-node-3 --net mynetwork --privileged= true - v /data/redis/share/redis-node-3 : /data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6383 docker run -d --name redis-node-4 --net mynetwork --privileged= true - v /data/redis/share/redis-node-4 : /data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6384 docker run -d --name redis-node-5 --net mynetwork --privileged= true - v /data/redis/share/redis-node-5 : /data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6385 docker run -d --name redis-node-6 --net mynetwork --privileged= true - v /data/redis/share/redis-node-6 : /data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6386 |
1 2 3 | --privileged= true 获取宿主机root用户权限 --cluster-enabled yes 开启redis集群 --appendonly yes 开启持久化 |
3.进入容器redis-node-1并为6台机器构建集群关系
1 | docker exec -it redis-node-1 /bin/bash |
1 | redis-cli --cluster create 172.10.0.4:6381 172.10.0.5:6382 172.10.0.6:6383 172.10.0.7:6384 172.10.0.8:6385 172.10.0.9:6386 --cluster-replicas 1 |
--cluster-replicas 1 表示为每个master创建一个slave节点
4.链接进入6381作为切入点,查看集群状态
5.数据读写存储
1 | redis-cli -p 6381 -c |
6.容错切换迁移
redis-node-5是1的从服务器,停掉1重新查看集群状态
恢复之前的主从关系,需要先启动node-1,再关闭node-5,在启动node-5
Redis主从扩容案例
新建6387、6388两个节点+新建后启动+查看是否8节点
1 2 | docker run -d --name redis-node-7 --net mynetwork --privileged= true - v /data/redis/share/redis-node-7 : /data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6387 docker run -d --name redis-node-8 --net mynetwork --privileged= true - v /data/redis/share/redis-node-8 : /data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6388 |
进入6387容器实例内部
1 | docker exec -it redis-node-7 /bin/bash |
将新增的6387节点(空槽号)作为master节点加入原集群
将新增的6387作为master节点加入集群
redis-cli --cluster add-node 自己实际IP地址:6387 自己实际IP地址:6382
6387 就是将要作为master新增节点
6382 就是原来集群节点里面的领路人,相当于6387拜拜6382的码头从而找到组织加入集群
检查集群情况第1次
1 | redis-cli --cluster check 172.10.0.4:6381 |
***重新分派槽号***
命令:redis-cli --cluster reshard IP地址:端口号
1 | redis-cli --cluster reshard 172.10.0.5:6382 |
检查集群情况第2次
redis-cli --cluster check 真实ip地址:6381
槽号分派说明
重新分配成本太高,所以前3家各自匀出来一部分,从6381/6382/6383三个旧节点分别匀出1364个坑位给新节点6387
**为主节点6387分配从节点6388**
命令:redis-cli --cluster add-node ip:slave(node-8)端口 ip:master(node-7)端口 --cluster-slave --cluster-master-id (node-7的ID)
1 | redis-cli --cluster add-node 172.10.0.11:6388 172.10.0.10:6387 --cluster-slave --cluster-master- id 646f216f3c1786134ce104a134d287f51988927c |
Redis主从缩容案例
目的:6387和6388下线
检查集群情况1获得6388的节点ID
1 | redis-cli --cluster del-node 172.10.0.11:6388 8079a17b31ce4af5b5bcf13e40cf00658752ab4f |
检查集群情况第三次
1 | redis-cli --cluster check 172.10.0.5:6382 |
本文来自博客园,作者:IT老登,转载请注明原文链接:https://www.cnblogs.com/nb-blog/p/17828775.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)