TiDB-301课程中DM数据迁移实验练习
TiDB Data Migration(DM)
概述
着手部署一个 Data Migration(DM) 集群后,将MySQL数据同步到已有的TiDB中。
实验环境说明
组件 | IP | 端口 |
---|---|---|
DM集群:V5.4.0 | ||
dm-master | 192.168.10.217 | 8261/8291 |
dm-worker1 | 192.168.10.218 | 8262 |
dm-worker2 | 192.168.10.219 | 8262 |
上游MySQL-V5.7.36 | 192.168.10.214 | 3308 |
TiDB 集群:V5.4.0 | ||
tidb | 192.168.10.214 | 4000/10080 |
tidb | 192.168.10.215 | |
tidb | 192.168.10.216 | |
pd | 192.168.10.214 | |
pd | 192.168.10.215 | |
pd | 192.168.10.216 | |
tikv | 192.168.10.210 | 20160/20180 |
tikv | 192.168.10.211 | 20160/20180 |
tikv | 192.168.10.212 | 20160/20180 |
任务内容
- 使用tiup工具部署一个DM集群
- 将MySQL中的数据表同步到TiDB
详细过程
任务1:部署DM集群
检查dm组件软件版本信息
tiup list dm-master
安装dm组件
tiup install dm dmctl
更新组件到最新版本(可选)
tiup update --self && tiup update dm
准备部署拓扑结构配置文件
生成模板文件
tiup dm template > topology.yaml
编辑拓扑配置文件
# The topology template is used deploy a minimal DM cluster, which suitable
# for scenarios with only three machinescontains. The minimal cluster contains
# - 3 master nodes
# - 3 worker nodes
# You can change the hosts according your environment
---
global:
user: "tidb"
ssh_port: 22
deploy_dir: "/ups/app/tidb/tidm"
data_dir: "/ups/data/tidb/dmdata"
# arch: "amd64"
master_servers:
- host: 192.168.10.217
worker_servers:
- host: 192.168.10.218
- host: 192.168.10.219
monitoring_servers:
- host: 192.168.10.219
grafana_servers:
- host: 192.168.10.219
alertmanager_servers:
- host: 192.168.10.219
部署集群
tiup dm deploy tidm v5.4.0 ./dm_topo.yaml --user tidb -y
检查集群状态
tiup dm display tidm
启动集群
tiup dm start tidm
任务2:同步MySQL数据到TiDB
上游MySQL端配置
为 dm-worker 组件创建连接MySQL数据库用户账号并授权;初始化实验数据用于全量数据同步测试
开通账号权限
create user 'syncer'@'192.168.10.218' identified by 'syncer';
create user 'syncer'@'192.168.10.219' identified by 'syncer';
GRANT RELOAD, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'syncer'@'192.168.10.218';
GRANT RELOAD, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'syncer'@'192.168.10.219';
GRANT SELECT ON *.* TO 'syncer'@'192.168.10.218';
GRANT SELECT ON *.* TO 'syncer'@'192.168.10.219';
实验数据
cat > mydbinit.sql <<-'EOF'
create database user;
use user;
create table information(id int primary key, info varchar(64));
create table trace(id int primary key, content varchar(64));
insert into information(id, info) values(1, 'andy'),(2, 'candy');
insert into trace(id, content) values(1,'error');
commit;
create database store;
use store;
create table store_bj(id int primary key, pname varchar(64));
create table store_tj(id int primary key, pname varchar(64));
create table store_sh(id int primary key, pname varchar(64));
-- create table store_suzhou(id int primary key, pname varchar(64));
create table store_sz(id int primary key, pname varchar(64));
insert into store_bj values(1,'book');
insert into store_tj values(1,'cup');
insert into store_sh values(1,'bike');
insert into store_sz values(1,'hat');
commit;
# 实验原题
create database salesdb;
use salesdb; -- 分库合并到tidb中 salesdb
create table sales(id int primary key, pname varchar(20), cnt int);
-- 3308 库
insert into sales values(1, 'book', 100);
-- 3309 库
insert into sales values(2, 'cup', 200);
-- insert into sales values(3,'shose',120);
# 下面单库中分表合并
create database salesdb;
use salesdb;
create table sales_01(id int primary key, pname varchar(20), cnt int);
-- 3308 库
insert into sales_01 values(1, 'book', 100);
create table sales_02(id int primary key, pname varchar(20), cnt int);
-- 3308 库
insert into sales_02 values(2, 'cup', 200);
create database log;
use log;
create table messages(id int primary key, msg varchar(64));
insert into messages values(1, 'hello');
-- insert into messages values(2,'world');
EOF
# 导入数据
mysql -uroot -proot -h2db4 -P3308 < mydbinit.sql
# 清理binlog
show binary logs;
flush logs;
PURGE BINARY LOGS TO 'blg.000008';
TiDB 端数据库配置
为 dm-worker/dm-master 组件创建连接TiDB数据库用户账号并授权
开通账号权限
create user 'syncer'@'192.168.10.218' identified by 'syncer';
create user 'syncer'@'192.168.10.219' identified by 'syncer';
create user 'syncer'@'192.168.10.217' identified by 'syncer';
GRANT SELECT,INSERT,UPDATE,DELETE,CREATE,DROP,ALTER,INDEX ON *.* TO 'syncer'@'192.168.10.218';
GRANT SELECT,INSERT,UPDATE,DELETE,CREATE,DROP,ALTER,INDEX ON *.* TO 'syncer'@'192.168.10.219';
GRANT SELECT,INSERT,UPDATE,DELETE,CREATE,DROP,ALTER,INDEX ON *.* TO 'syncer'@'192.168.10.217';
flush privileges;
DM 集群配置
配置数据源
-
生成加密密码
# 加密 tiup dmctl encrypt 'syncer' # 解密 tiup dmctl decrypt 'nMbrwS34wTZo7cBYUYRMqkC5lsgEF04='
-
数据源配置文件(mytsk01.yaml )
# MySQL Configuration.
source-id: "mysql-replica"
# DM-worker 是否使用全局事务标识符 (GTID) 拉取 binlog。使用前提是在上游 MySQL 已开启 GTID 模式。
enable-gtid: false
from:
host: "192.168.10.214"
user: "syncer"
password: "nMbrwS34wTZo7cBYUYRMqkC5lsgEF04="
port: 3308
加载数据源到DM中
tiup dmctl --master-addr=192.168.10.217:8261 operate-source create mytsk01.yaml
operate-source 用法:
operate-source
create
/update
/stop
/show
upstream MySQL/MariaDB sourceUsage:
dmctl operate-source[config-file ...] [--print-sample-config] [flags]
检查已加载数据源
tiup dmctl --master-addr=192.168.10.217:8261 get-config source mysql-replica
查看数据源和 dm-worker 的对应关系
tiup dmctl --master-addr=192.168.10.217:8261 operate-source show
迁移任务配置
定义数据迁移任务需要的数据源
# 任务规则配置文件: myrule01.yaml
# 任务名称,,需要全局唯一
name: "my2tidb-task01"
# 全量+增量 (all) 迁移模式
task-mode: "all"
## ******** 数据源配置 **********
mysql-instances:
#- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据
#- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据
- source-id: "mysql-replica"
定义目标TiDB 集群
# 任务规则配置文件: myrule01.yaml
# 任务名称,,需要全局唯一
name: "my2tidb-task01"
# 全量+增量 (all) 迁移模式
task-mode: "all"
## ******** 目标 TiDB 配置 **********
target-database: # 目标 TiDB 配置
host: "192.168.10.215"
port: 4000
user: "syncer"
password: "nMbrwS34wTZo7cBYUYRMqkC5lsgEF04=" # 如果密码不为空,则推荐使用经过 dmctl 加密的密文
## ******** 数据源配置 **********
mysql-instances:
#- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据
#- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据
- source-id: "mysql-replica"
配置任务规则文件
-
MySQL 数据库中的 user 库中所有的表同步到 TiDB 数据库的 user_north (vi myrule01.yaml)
# 任务规则配置文件: myrule01.yaml # 任务名称,,需要全局唯一 name: "my2tidb-task01" # 全量+增量 (all) 迁移模式 task-mode: "all" ## ******** 目标 TiDB 配置 ********** target-database: # 目标 TiDB 配置 host: "192.168.10.215" port: 4000 user: "syncer" password: "nMbrwS34wTZo7cBYUYRMqkC5lsgEF04=" # 如果密码不为空,则推荐使用经过 dmctl 加密的密文 ## ******** 功能配置集 ********** routes: # 上游和下游表之间的路由 table routing 规则集 route-rule-user-01: # 配置名称 schema-pattern: "user" target-schema: "user_north" block-allow-list: # 定义数据源迁移表的过滤规则 bw-rule-user-01: # 规则名称 do-dbs: ["user"] # 迁移哪些库 ignore-dbs: ["mysql", "mydb", "information_schema", "performance_schema", "sys"] # 忽略哪些库 ## ******** 数据源配置 ********** # ----------- 实例配置 ----------- mysql-instances: #- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据 #- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据 - source-id: "mysql-replica" route-rules: ["route-rule-user-01"] # 该上游数据库实例匹配的表到下游数据库的 table routing 规则名称 block-allow-list: "bw-rule-user-01" # 该上游数据库实例匹配的表的 block-allow-list 过滤规则名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
-
MySQL 数据库实例中的 store 库中的表store_sz同步到 TiDB 数据库中的store 库的store_suzhou表中,其它表原样同步
# 任务规则配置文件: myrule01.yaml # 任务名称,,需要全局唯一 name: "my2tidb-task01" # 全量+增量 (all) 迁移模式 task-mode: "all" ## ******** 目标 TiDB 配置 ********** target-database: # 目标 TiDB 配置 host: "192.168.10.215" port: 4000 user: "syncer" password: "nMbrwS34wTZo7cBYUYRMqkC5lsgEF04=" # 如果密码不为空,则推荐使用经过 dmctl 加密的密文 ## ******** 功能配置集 ********** routes: # 上游和下游表之间的路由 table routing 规则集 route-rule-user-01: # 配置名称 schema-pattern: "user" target-schema: "user_north" route-rule-store-02: schema-pattern: "store" table-pattern: "store_sz" target-schema: "store" target-table: "store_suzhou" block-allow-list: # 定义数据源迁移表的过滤规则 bw-rule-01: # 规则名称 do-dbs: ["user", "store"] # 迁移哪些库 ignore-dbs: ["mysql", "mydb", "information_schema", "performance_schema", "sys"] # 忽略哪些库 ## ******** 数据源配置 ********** # ----------- 实例配置 ----------- mysql-instances: #- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据 #- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据 - source-id: "mysql-replica" meta: binlog-name: blg.000008 binlog-pos: 154 route-rules: ["route-rule-user-01", "route-rule-store-02"] # 该上游数据库实例匹配的表到下游数据库的 table routing 规则名称 block-allow-list: "bw-rule-01" # 该上游数据库实例匹配的表的 block-allow-list 过滤规则名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list syncer-config-name: "global" # syncers 配置的名称 syncers: # sync 处理单元的运行配置参数 global: # 配置名称 worker-count: 16 # 应用已传输到本地的 binlog 的并发线程数量,默认值为 16。调整此参数不会影响上游拉取日志的并发,但会对下游产生显著压力。 batch: 100 # sync 迁移到下游数据库的一个事务批次 SQL 语句数,默认值为 100,建议一般不超过 500。 enable-ansi-quotes: true # 若 `session` 中设置 `sql-mode: "ANSI_QUOTES"`,则需开启此项 # 设置为 true,则将来自上游的 `INSERT` 改写为 `REPLACE`,将 `UPDATE` 改写为 `DELETE` 与 `REPLACE`,保证在表结构中存在主键或唯一索引的条件下迁移数据时可以重复导入 DML。 safe-mode: false # 设置为 true,DM 会在不增加延迟的情况下,尽可能地将上游对同一条数据的多次操作压缩成一次操作。 # 如 INSERT INTO tb(a,b) VALUES(1,1); UPDATE tb SET b=11 WHERE a=1; 会被压缩成 INSERT INTO tb(a,b) VALUES(1,11); 其中 a 为主键 # 如 UPDATE tb SET b=1 WHERE a=1; UPDATE tb(a,b) SET b=2 WHERE a=1; 会被压缩成 UPDATE tb(a,b) SET b=2 WHERE a=1; 其中 a 为主键 # 如 DELETE FROM tb WHERE a=1; INSERT INTO tb(a,b) VALUES(1,1); 会被压缩成 REPLACE INTO tb(a,b) VALUES(1,1); 其中 a 为主键 compact: false # 设置为 true,DM 会尽可能地将多条同类型的语句合并到一条语句中,生成一条带多行数据的 SQL 语句。 # 如 INSERT INTO tb(a,b) VALUES(1,1); INSERT INTO tb(a,b) VALUES(2,2); 会变成 INSERT INTO tb(a,b) VALUES(1,1),(2,2); # 如 UPDATE tb SET b=11 WHERE a=1; UPDATE tb(a,b) set b=22 WHERE a=2; 会变成 INSERT INTO tb(a,b) VALUES(1,11),(2,22) ON DUPLICATE KEY UPDATE a=VALUES(a), b=VALUES(b); 其中 a 为主键 # 如 DELETE FROM tb WHERE a=1; DELETE FROM tb WHERE a=2 会变成 DELETE FROM tb WHERE (a) IN (1),(2);其中 a 为主键 multiple-rows: false
-
多个MySQL 数据库实例的 salesdb 库中的表 sales_N(分表),让他们同步到TiDB 中的salesdb 库的 sales 表中。(分表分库规则)
# 任务规则配置文件: myrule01.yaml # 任务名称,,需要全局唯一 name: "my2tidb-task01" # 全量+增量 (all) 迁移模式 task-mode: "all" ## ******** 目标 TiDB 配置 ********** target-database: # 目标 TiDB 配置 host: "192.168.10.215" port: 4000 user: "syncer" password: "nMbrwS34wTZo7cBYUYRMqkC5lsgEF04=" # 如果密码不为空,则推荐使用经过 dmctl 加密的密文 ## ******** 功能配置集 ********** routes: # 上游和下游表之间的路由 table routing 规则集 route-rule-user-01: # 配置名称 schema-pattern: "user" target-schema: "user_north" route-rule-store-02: schema-pattern: "store" table-pattern: "store_sz" target-schema: "store" target-table: "store_suzhou" route-rule-salesdb-03: schema-pattern: "salesdb" table-pattern: "sales_*" # 表名匹配规则,支持通配符 "*" 和 "?" target-schema: "salesdb" target-table: "sales" # 目标表名称 block-allow-list: # 定义数据源迁移表的过滤规则 bw-rule-01: # 规则名称 do-dbs: ["user", "store", "salesdb"] # 迁移哪些库 ignore-dbs: ["mysql", "mydb", "information_schema", "performance_schema", "sys"] # 忽略哪些库 ## ******** 数据源配置 ********** # ----------- 实例配置 ----------- mysql-instances: #- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据 #- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据 - source-id: "mysql-replica" meta: binlog-name: blg.000008 binlog-pos: 154 route-rules: ["route-rule-user-01", "route-rule-store-02", "route-rule-salesdb-03"] # 该上游数据库实例匹配的表到下游数据库的 table routing 规则名称 block-allow-list: "bw-rule-01" # 该上游数据库实例匹配的表的 block-allow-list 过滤规则名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list syncer-config-name: "global" # syncers 配置的名称 syncers: # sync 处理单元的运行配置参数 global: # 配置名称 worker-count: 16 # 应用已传输到本地的 binlog 的并发线程数量,默认值为 16。调整此参数不会影响上游拉取日志的并发,但会对下游产生显著压力。 batch: 100 # sync 迁移到下游数据库的一个事务批次 SQL 语句数,默认值为 100,建议一般不超过 500。 enable-ansi-quotes: true # 若 `session` 中设置 `sql-mode: "ANSI_QUOTES"`,则需开启此项 # 设置为 true,则将来自上游的 `INSERT` 改写为 `REPLACE`,将 `UPDATE` 改写为 `DELETE` 与 `REPLACE`,保证在表结构中存在主键或唯一索引的条件下迁移数据时可以重复导入 DML。 safe-mode: false # 设置为 true,DM 会在不增加延迟的情况下,尽可能地将上游对同一条数据的多次操作压缩成一次操作。 # 如 INSERT INTO tb(a,b) VALUES(1,1); UPDATE tb SET b=11 WHERE a=1; 会被压缩成 INSERT INTO tb(a,b) VALUES(1,11); 其中 a 为主键 # 如 UPDATE tb SET b=1 WHERE a=1; UPDATE tb(a,b) SET b=2 WHERE a=1; 会被压缩成 UPDATE tb(a,b) SET b=2 WHERE a=1; 其中 a 为主键 # 如 DELETE FROM tb WHERE a=1; INSERT INTO tb(a,b) VALUES(1,1); 会被压缩成 REPLACE INTO tb(a,b) VALUES(1,1); 其中 a 为主键 compact: false # 设置为 true,DM 会尽可能地将多条同类型的语句合并到一条语句中,生成一条带多行数据的 SQL 语句。 # 如 INSERT INTO tb(a,b) VALUES(1,1); INSERT INTO tb(a,b) VALUES(2,2); 会变成 INSERT INTO tb(a,b) VALUES(1,1),(2,2); # 如 UPDATE tb SET b=11 WHERE a=1; UPDATE tb(a,b) set b=22 WHERE a=2; 会变成 INSERT INTO tb(a,b) VALUES(1,11),(2,22) ON DUPLICATE KEY UPDATE a=VALUES(a), b=VALUES(b); 其中 a 为主键 # 如 DELETE FROM tb WHERE a=1; DELETE FROM tb WHERE a=2 会变成 DELETE FROM tb WHERE (a) IN (1),(2);其中 a 为主键 multiple-rows: false
-
MySQL 数据库实例中的 user 库不会复制删除操作,user 库中的 trace 表不会复制 truncate ,drop 和 delete 操作,store 库不会复制删除操作,store 库的表不会复制truncate ,drop 和 delete 操作。
# 任务规则配置文件: myrule04.yaml # 任务名称,,需要全局唯一 name: "my2tidb-task01" # 全量+增量 (all) 迁移模式 task-mode: "all" ## ******** 目标 TiDB 配置 ********** target-database: # 目标 TiDB 配置 host: "192.168.10.215" port: 4000 user: "syncer" password: "nMbrwS34wTZo7cBYUYRMqkC5lsgEF04=" # 如果密码不为空,则推荐使用经过 dmctl 加密的密文 ## ******** 功能配置集 ********** routes: # 上游和下游表之间的路由 table routing 规则集 route-rule-user-01: # 配置名称 schema-pattern: "user" target-schema: "user_north" route-rule-store-02: schema-pattern: "store" table-pattern: "store_sz" target-schema: "store" target-table: "store_suzhou" route-rule-salesdb-03: schema-pattern: "salesdb" table-pattern: "sales_*" # 表名匹配规则,支持通配符 "*" 和 "?" target-schema: "salesdb" target-table: "sales" # 目标表名称 filters: # 上游数据库实例匹配的表的 binlog event filter 规则集 filter-rule-01: # 配置名称 schema-pattern: "user" # 库名匹配规则,支持通配符 "*" 和 "?" table-pattern: "trace" # 表名匹配规则,支持通配符 "*" 和 "?" events: ["truncate table", "drop table", "delete"] # 匹配哪些 event 类型 action: Ignore # 对与符合匹配规则的 binlog 迁移(Do)还是忽略(Ignore) filter-rule-02: # user 库不会复制删除操作 schema-pattern: "user" events: ["drop database"] # 匹配哪些 event 类型 action: Ignore filter-rule-03: schema-pattern: "store" events: ["truncate table", "drop table", "delete", "drop database"] action: Ignore block-allow-list: # 定义数据源迁移表的过滤规则 bw-rule-01: # 规则名称 do-dbs: ["user", "store", "salesdb"] # 迁移哪些库 ignore-dbs: ["mysql", "mydb", "information_schema", "performance_schema", "sys"] # 忽略哪些库 ## ******** 数据源配置 ********** # ----------- 实例配置 ----------- mysql-instances: #- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据 #- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据 - source-id: "mysql-replica" meta: binlog-name: blg.000008 binlog-pos: 154 route-rules: ["route-rule-user-01", "route-rule-store-02", "route-rule-salesdb-03"] # 该上游数据库实例匹配的表到下游数据库的 table routing 规则名称 block-allow-list: "bw-rule-01" # 该上游数据库实例匹配的表的 block-allow-list 过滤规则名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list filter-rules: ["filter-rule-01", "filter-rule-02", "filter-rule-03"] # 该上游数据库实例匹配的表的 binlog event filter 规则名称 syncer-config-name: "global" # syncers 配置的名称 syncers: # sync 处理单元的运行配置参数 global: # 配置名称 worker-count: 16 # 应用已传输到本地的 binlog 的并发线程数量,默认值为 16。调整此参数不会影响上游拉取日志的并发,但会对下游产生显著压力。 batch: 100 # sync 迁移到下游数据库的一个事务批次 SQL 语句数,默认值为 100,建议一般不超过 500。 enable-ansi-quotes: true # 若 `session` 中设置 `sql-mode: "ANSI_QUOTES"`,则需开启此项 # 设置为 true,则将来自上游的 `INSERT` 改写为 `REPLACE`,将 `UPDATE` 改写为 `DELETE` 与 `REPLACE`,保证在表结构中存在主键或唯一索引的条件下迁移数据时可以重复导入 DML。 safe-mode: false # 设置为 true,DM 会在不增加延迟的情况下,尽可能地将上游对同一条数据的多次操作压缩成一次操作。 # 如 INSERT INTO tb(a,b) VALUES(1,1); UPDATE tb SET b=11 WHERE a=1; 会被压缩成 INSERT INTO tb(a,b) VALUES(1,11); 其中 a 为主键 # 如 UPDATE tb SET b=1 WHERE a=1; UPDATE tb(a,b) SET b=2 WHERE a=1; 会被压缩成 UPDATE tb(a,b) SET b=2 WHERE a=1; 其中 a 为主键 # 如 DELETE FROM tb WHERE a=1; INSERT INTO tb(a,b) VALUES(1,1); 会被压缩成 REPLACE INTO tb(a,b) VALUES(1,1); 其中 a 为主键 compact: false # 设置为 true,DM 会尽可能地将多条同类型的语句合并到一条语句中,生成一条带多行数据的 SQL 语句。 # 如 INSERT INTO tb(a,b) VALUES(1,1); INSERT INTO tb(a,b) VALUES(2,2); 会变成 INSERT INTO tb(a,b) VALUES(1,1),(2,2); # 如 UPDATE tb SET b=11 WHERE a=1; UPDATE tb(a,b) set b=22 WHERE a=2; 会变成 INSERT INTO tb(a,b) VALUES(1,11),(2,22) ON DUPLICATE KEY UPDATE a=VALUES(a), b=VALUES(b); 其中 a 为主键 # 如 DELETE FROM tb WHERE a=1; DELETE FROM tb WHERE a=2 会变成 DELETE FROM tb WHERE (a) IN (1),(2);其中 a 为主键 multiple-rows: false
-
MySQL 数据库实例中的 log 库不会参与复制
# 任务规则配置文件: myrule05.yaml # 任务名称,,需要全局唯一 name: "my2tidb-task01" # 全量+增量 (all) 迁移模式 task-mode: "all" ## ******** 目标 TiDB 配置 ********** target-database: # 目标 TiDB 配置 host: "192.168.10.215" port: 4000 user: "syncer" password: "nMbrwS34wTZo7cBYUYRMqkC5lsgEF04=" # 如果密码不为空,则推荐使用经过 dmctl 加密的密文 ## ******** 功能配置集 ********** routes: # 上游和下游表之间的路由 table routing 规则集 route-rule-user-01: # 配置名称 schema-pattern: "user" target-schema: "user_north" route-rule-store-02: schema-pattern: "store" table-pattern: "store_sz" target-schema: "store" target-table: "store_suzhou" route-rule-salesdb-03: schema-pattern: "salesdb" table-pattern: "sales_*" # 表名匹配规则,支持通配符 "*" 和 "?" target-schema: "salesdb" target-table: "sales" # 目标表名称 filters: # 上游数据库实例匹配的表的 binlog event filter 规则集 filter-rule-01: # 配置名称 schema-pattern: "user" # 库名匹配规则,支持通配符 "*" 和 "?" table-pattern: "trace" # 表名匹配规则,支持通配符 "*" 和 "?" events: ["truncate table", "drop table", "delete"] # 匹配哪些 event 类型 action: Ignore # 对与符合匹配规则的 binlog 迁移(Do)还是忽略(Ignore) filter-rule-02: # user 库不会复制删除操作 schema-pattern: "user" events: ["drop database"] # 匹配哪些 event 类型 action: Ignore filter-rule-03: schema-pattern: "store" events: ["truncate table", "drop table", "delete", "drop database"] action: Ignore block-allow-list: # 定义数据源迁移表的过滤规则 bw-rule-01: # 规则名称 do-dbs: ["user", "store", "salesdb"] # 迁移哪些库 ignore-dbs: ["log", "mysql", "mydb", "information_schema", "performance_schema", "sys"] # 忽略哪些库 mydumpers: # dump 处理单元的运行配置参数 global: # 配置名称 threads: 4 # dump 处理单元从上游数据库实例导出数据的线程数量,默认值为 4 chunk-filesize: 64 # dump 处理单元生成的数据文件大小,默认值为 64,单位为 MB extra-args: "--consistency none" # dump 处理单元的其他参数,不需要在 extra-args 中配置 table-list,DM 会自动生成 loaders: # load 处理单元的运行配置参数 global: # 配置名称 pool-size: 16 # load 处理单元并发执行 dump 处理单元的 SQL 文件的线程数量,默认值为 16,当有多个实例同时向 TiDB 迁移数据时可根据负载情况适当调小该值 dir: "./dumped_data" # dump 处理单元输出 SQL 文件的目录,同时也是 load 处理单元读取文件的目录。该配置项的默认值为 "./dumped_data"。同实例对应的不同任务必须配置不同的目录 syncers: # sync 处理单元的运行配置参数 global: # 配置名称 worker-count: 16 # 应用已传输到本地的 binlog 的并发线程数量,默认值为 16。调整此参数不会影响上游拉取日志的并发,但会对下游产生显著压力。 batch: 100 # sync 迁移到下游数据库的一个事务批次 SQL 语句数,默认值为 100,建议一般不超过 500。 enable-ansi-quotes: true # 若 `session` 中设置 `sql-mode: "ANSI_QUOTES"`,则需开启此项 # 设置为 true,则将来自上游的 `INSERT` 改写为 `REPLACE`,将 `UPDATE` 改写为 `DELETE` 与 `REPLACE`,保证在表结构中存在主键或唯一索引的条件下迁移数据时可以重复导入 DML。 safe-mode: false # 设置为 true,DM 会在不增加延迟的情况下,尽可能地将上游对同一条数据的多次操作压缩成一次操作。 # 如 INSERT INTO tb(a,b) VALUES(1,1); UPDATE tb SET b=11 WHERE a=1; 会被压缩成 INSERT INTO tb(a,b) VALUES(1,11); 其中 a 为主键 # 如 UPDATE tb SET b=1 WHERE a=1; UPDATE tb(a,b) SET b=2 WHERE a=1; 会被压缩成 UPDATE tb(a,b) SET b=2 WHERE a=1; 其中 a 为主键 # 如 DELETE FROM tb WHERE a=1; INSERT INTO tb(a,b) VALUES(1,1); 会被压缩成 REPLACE INTO tb(a,b) VALUES(1,1); 其中 a 为主键 compact: false # 设置为 true,DM 会尽可能地将多条同类型的语句合并到一条语句中,生成一条带多行数据的 SQL 语句。 # 如 INSERT INTO tb(a,b) VALUES(1,1); INSERT INTO tb(a,b) VALUES(2,2); 会变成 INSERT INTO tb(a,b) VALUES(1,1),(2,2); # 如 UPDATE tb SET b=11 WHERE a=1; UPDATE tb(a,b) set b=22 WHERE a=2; 会变成 INSERT INTO tb(a,b) VALUES(1,11),(2,22) ON DUPLICATE KEY UPDATE a=VALUES(a), b=VALUES(b); 其中 a 为主键 # 如 DELETE FROM tb WHERE a=1; DELETE FROM tb WHERE a=2 会变成 DELETE FROM tb WHERE (a) IN (1),(2);其中 a 为主键 multiple-rows: false ## ******** 数据源配置 ********** # ----------- 实例配置 ----------- mysql-instances: #- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据 #- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据 - source-id: "mysql-replica" meta: binlog-name: blg.000008 binlog-pos: 154 route-rules: ["route-rule-user-01", "route-rule-store-02", "route-rule-salesdb-03"] # 该上游数据库实例匹配的表到下游数据库的 table routing 规则名称 block-allow-list: "bw-rule-01" # 该上游数据库实例匹配的表的 block-allow-list 过滤规则名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list filter-rules: ["filter-rule-01", "filter-rule-02", "filter-rule-03"] # 该上游数据库实例匹配的表的 binlog event filter 规则名称 mydumper-config-name: "global" loader-config-name: "global" syncer-config-name: "global" # syncers 配置的名称
检查配置
tiup dmctl --master-addr=192.168.10.217:8261 check-task myrule01.yaml
注意:dm-master 也需要开通连接TiDB数据库权限,否则抛出如下错误信息:
处理:
create user 'syncer'@'192.168.10.217' identified by 'syncer'; GRANT SELECT,INSERT,UPDATE,DELETE,CREATE,DROP,ALTER,INDEX ON *.* TO 'syncer'@'192.168.10.217';
启动同步作业
tiup dmctl --master-addr=192.168.10.217:8261 start-task myrule01.yaml
查询任务状态,查看是否正常
tiup dmctl --master-addr=192.168.10.217:8261 query-status myrule01.yaml
tiup dmctl --master-addr=192.168.10.217:8261 query-status my2tidb-task01
权限不足,任务Paused了
在MySQL中给用户授权process 全局数据库权限
GRANT process ON *.* TO 'syncer'@'192.168.10.218'; GRANT process ON *.* TO 'syncer'@'192.168.10.219';
重启任务后,发现另一个问题,如下图:
检查上游MySQL数据库配置
-- 从mysql5.7.6开始information_schema.global_status已经开始被舍弃 show variables like '%show_compatibility_56%'; # 查看show_compatibility_56%的开关 set global show_compatibility_56=on;
重启作业任务后,检查状态
检查目标 TiDB 数据库的数据,查看是否数据同步正确
show databases;
use user_north;
show tables;
select * from information;
select * from trace;
在上游MySQL的user.trace表新增记录,并在目标端TiDB检查确认同步情况
- MySQL插入数据
insert into trace values(2,'info');
-
检查目标库同步情况
select * from trace;
在MySQL端中的sales_01插入记录,验证目标数据
-- mysql
use salesdb;
insert into sales_01 values(3,'shose',120);
-- tidb
select * from salesdb.sales;
暂停任务后在上游MySQL更新数据记录,验证目标端TiDB数据复制情况
tiup dmctl --master-addr=192.168.10.217:8261 pause-task my2tidb-task01
恢复作业任务,验证目标端TiDB数据复制情况
tiup dmctl --master-addr=192.168.10.217:8261 resume-task my2tidb-task01
tiup dmctl --master-addr=192.168.10.217:8261 query-status my2tidb-task01
附录
参考文档
数据迁移任务配置向导
需迁移的表
配置从数据源迁移表的黑白名单,则需要添加两个定义
定义全局的黑白名单规则
block-allow-list:
bw-rule-1: # 规则名称
do-dbs: ["test.*", "user"] # 迁移哪些库,支持通配符 "*" 和 "?",do-dbs 和 ignore-dbs 只需要配置一个,如果两者同时配置只有 do-dbs 会生效
# ignore-dbs: ["mysql", "account"] # 忽略哪些库,支持通配符 "*" 和 "?"
do-tables: # 迁移哪些表,do-tables 和 ignore-tables 只需要配置一个,如果两者同时配置只有 do-tables 会生效
- db-name: "test.*"
tbl-name: "t.*"
- db-name: "user"
tbl-name: "information"
bw-rule-2: # 规则名称
ignore-tables: # 忽略哪些表
- db-name: "user"
tbl-name: "log"
在数据源配置中引用黑白名单规则,过滤该数据源需要迁移的表
mysql-instances:
- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据
block-allow-list: "bw-rule-1" # 黑白名单配置名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据
block-allow-list: "bw-rule-2" # 黑白名单配置名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
配置需要过滤的操作
配置过滤特定操作,则需要添加两个定义
定义全局的数据源操作过滤规则
filters: # 定义过滤数据源特定操作的规则,可以定义多个规则
filter-rule-1: # 规则名称
schema-pattern: "test_*" # 匹配数据源的库名,支持通配符 "*" 和 "?"
table-pattern: "t_*" # 匹配数据源的表名,支持通配符 "*" 和 "?"
events: ["truncate table", "drop table"] # 匹配上 schema-pattern 和 table-pattern 的库或者表的操作类型
action: Ignore # 迁移(Do)还是忽略(Ignore)
filter-rule-2:
schema-pattern: "test"
events: ["all dml"]
action: Do
引用数据源操作过滤规则,过滤该数据源的指定库或表的指定操作
mysql-instances:
- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据
block-allow-list: "bw-rule-1" # 黑白名单配置名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
filter-rules: ["filter-rule-1"] # 过滤数据源特定操作的规则,可以配置多个过滤规则
- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据
block-allow-list: "bw-rule-2" # 黑白名单配置名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
filter-rules: ["filter-rule-2"] # 过滤数据源特定操作的规则,可以配置多个过滤规则
配置需要数据源表到目标 TiDB 表的映射
配置数据源表迁移到目标 TiDB 表的路由规则,则需要添加两个定义
定义全局的路由规则
routes: # 定义数据源表迁移到目标 TiDB 表的路由规则,可以定义多个规则
route-rule-1: # 规则名称
schema-pattern: "test_*" # 匹配数据源的库名,支持通配符 "*" 和 "?"
table-pattern: "t_*" # 匹配数据源的表名,支持通配符 "*" 和 "?"
target-schema: "test" # 目标 TiDB 库名
target-table: "t" # 目标 TiDB 表名
route-rule-2:
schema-pattern: "test_*"
target-schema: "test"
引用路由规则,过滤该数据源需要迁移的表
mysql-instances:
- source-id: "mysql-replica-01" # 从 source-id = mysql-replica-01 的数据源迁移数据
block-allow-list: "bw-rule-1" # 黑白名单配置名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
filter-rules: ["filter-rule-1"] # 过滤数据源特定操作的规则,可以配置多个过滤规则
route-rules: ["route-rule-1", "route-rule-2"] # 数据源表迁移到目标 TiDB 表的路由规则,可以定义多个规则
- source-id: "mysql-replica-02" # 从 source-id = mysql-replica-02 的数据源迁移数据
block-allow-list: "bw-rule-2" # 黑白名单配置名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
filter-rules: ["filter-rule-2"] # 过滤数据源特定操作的规则,可以配置多个过滤规则
配置是否进行分库分表合并
如果是分库分表合并的数据迁移场景,并且需要同步分库分表的 DDL,则必须显式配置 shard-mode
,否则不要配置该选项。
## ********* 任务信息配置 *********
name: test # 任务名称,需要全局唯一
shard-mode: "pessimistic" # 默认值为 "" 即无需协调。如果为分库分表合并任务,请设置为悲观协调模式 "pessimistic"。在深入了解乐观协调模式的原理和使用限制后,也可以设置为乐观协调模式 "optimistic"
完整作业任务配置文件示例
# ----------- 全局配置 -----------
## ********* 基本信息配置 *********
name: test # 任务名称,需要全局唯一
task-mode: all # 任务模式,可设为 "full" - "只进行全量数据迁移"、"incremental" - "Binlog 实时同步"、"all" - "全量 + Binlog 实时同步"
is-sharding: true # 该配置项从 DM v2.0.0 起弃用,其功能被 `shard-mode` 取代,建议使用 `shard-mode` 代替 `is-sharding`
shard-mode: "pessimistic" # 任务协调模式,可选的模式有 ""、"pessimistic、"optimistic"。默认值为 "" 即无需协调。如果是分库分表合并任务,请设置为悲观协调模式 "pessimistic"。
# 在 v2.0.6 版本后乐观模式逐渐成熟,深入了解乐观协调模式的原理和使用限制后,也可以设置为乐观协调模式 "optimistic"
meta-schema: "dm_meta" # 下游储存 `meta` 信息的数据库
# timezone: "Asia/Shanghai" # 指定数据迁移任务时 SQL Session 使用的时区。DM 默认使用目标库的全局时区配置进行数据迁移,并且自动确保同步数据的正确性。使用自定义时区依然可以确保整个流程的正确性,但一般不需要手动指定。
case-sensitive: false # schema/table 是否大小写敏感
online-ddl: true # 支持上游 "gh-ost" 、"pt" 的自动处理
online-ddl-scheme: "gh-ost" # `online-ddl-scheme` 在未来将会被弃用,建议使用 `online-ddl` 代替 `online-ddl-scheme`
clean-dump-file: true # 是否清理 dump 阶段产生的文件,包括 metadata 文件、建库建表 SQL 文件以及数据导入 SQL 文件
collation_compatible: "loose" # 同步 CREATE 语句中缺省 Collation 的方式,可选 "loose" 和 "strict",默认为 "loose"。"loose" 模式不会显式补充上游缺省的 Collation,"strict" 会显式补充上游缺省的 Collation。当使用 "strict" 模式,但下游不支持上游缺省的 Collation 时,下游可能会报错。
target-database: # 下游数据库实例配置
host: "192.168.0.1"
port: 4000
user: "root"
password: "/Q7B9DizNLLTTfiZHv9WoEAKamfpIUs=" # 推荐使用经 `dmctl encrypt` 加密后的密码
max-allowed-packet: 67108864 # 设置 DM 内部连接 TiDB 服务器时,TiDB 客户端的 "max_allowed_packet" 限制(即接受的最大数据包限制),单位为字节,默认 67108864 (64 MB)
# 该配置项从 DM v2.0.0 起弃用,DM 会自动获取连接 TiDB 的 "max_allowed_packet"
session: # 设置 TiDB 的 session 变量,在 v1.0.6 版本引入。更多变量及解释参见 `https://docs.pingcap.com/zh/tidb/stable/system-variables`
sql_mode: "ANSI_QUOTES,NO_ZERO_IN_DATE,NO_ZERO_DATE" # 从 DM v2.0.0 起,如果配置文件中没有出现该项,DM 会自动从下游 TiDB 中获得适合用于 "sql_mode" 的值。手动配置该项具有更高优先级
tidb_skip_utf8_check: 1 # 从 DM v2.0.0 起,如果配置文件中没有出现该项,DM 会自动从下游 TiDB 中获得适合用于 "tidb_skip_utf8_check" 的值。手动配置该项具有更高优先级
tidb_constraint_check_in_place: 0
security: # 下游 TiDB TLS 相关配置
ssl-ca: "/path/to/ca.pem"
ssl-cert: "/path/to/cert.pem"
ssl-key: "/path/to/key.pem"
## ******** 功能配置集 **********
routes: # 上游和下游表之间的路由 table routing 规则集
route-rule-1: # 配置名称
schema-pattern: "test_*" # 库名匹配规则,支持通配符 "*" 和 "?"
table-pattern: "t_*" # 表名匹配规则,支持通配符 "*" 和 "?"
target-schema: "test" # 目标库名称
target-table: "t" # 目标表名称
route-rule-2:
schema-pattern: "test_*"
target-schema: "test"
filters: # 上游数据库实例匹配的表的 binlog event filter 规则集
filter-rule-1: # 配置名称
schema-pattern: "test_*" # 库名匹配规则,支持通配符 "*" 和 "?"
table-pattern: "t_*" # 表名匹配规则,支持通配符 "*" 和 "?"
events: ["truncate table", "drop table"] # 匹配哪些 event 类型
action: Ignore # 对与符合匹配规则的 binlog 迁移(Do)还是忽略(Ignore)
filter-rule-2:
schema-pattern: "test_*"
events: ["all dml"]
action: Do
expression-filter: # 定义数据源迁移行变更的过滤规则,可以定义多个规则
# 过滤 `expr_filter`.`tbl` 的 c 为偶数的插入
even_c: # 规则名称
schema: "expr_filter" # 要匹配的上游数据库库名,不支持通配符匹配或正则匹配
table: "tbl" # 要匹配的上游表名,不支持通配符匹配或正则匹配
insert-value-expr: "c % 2 = 0"
block-allow-list: # 定义数据源迁移表的过滤规则,可以定义多个规则。如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
bw-rule-1: # 规则名称
do-dbs: ["~^test.*", "user"] # 迁移哪些库
ignore-dbs: ["mysql", "account"] # 忽略哪些库
do-tables: # 迁移哪些表
- db-name: "~^test.*"
tbl-name: "~^t.*"
- db-name: "user"
tbl-name: "information"
bw-rule-2: # 规则名称
ignore-tables: # 忽略哪些表
- db-name: "user"
tbl-name: "log"
mydumpers: # dump 处理单元的运行配置参数
global: # 配置名称
threads: 4 # dump 处理单元从上游数据库实例导出数据的线程数量,默认值为 4
chunk-filesize: 64 # dump 处理单元生成的数据文件大小,默认值为 64,单位为 MB
extra-args: "--consistency none" # dump 处理单元的其他参数,不需要在 extra-args 中配置 table-list,DM 会自动生成
loaders: # load 处理单元的运行配置参数
global: # 配置名称
pool-size: 16 # load 处理单元并发执行 dump 处理单元的 SQL 文件的线程数量,默认值为 16,当有多个实例同时向 TiDB 迁移数据时可根据负载情况适当调小该值
dir: "./dumped_data" # dump 处理单元输出 SQL 文件的目录,同时也是 load 处理单元读取文件的目录。该配置项的默认值为 "./dumped_data"。同实例对应的不同任务必须配置不同的目录
syncers: # sync 处理单元的运行配置参数
global: # 配置名称
worker-count: 16 # 应用已传输到本地的 binlog 的并发线程数量,默认值为 16。调整此参数不会影响上游拉取日志的并发,但会对下游产生显著压力。
batch: 100 # sync 迁移到下游数据库的一个事务批次 SQL 语句数,默认值为 100,建议一般不超过 500。
enable-ansi-quotes: true # 若 `session` 中设置 `sql-mode: "ANSI_QUOTES"`,则需开启此项
# 设置为 true,则将来自上游的 `INSERT` 改写为 `REPLACE`,将 `UPDATE` 改写为 `DELETE` 与 `REPLACE`,保证在表结构中存在主键或唯一索引的条件下迁移数据时可以重复导入 DML。
safe-mode: false
# 设置为 true,DM 会在不增加延迟的情况下,尽可能地将上游对同一条数据的多次操作压缩成一次操作。
# 如 INSERT INTO tb(a,b) VALUES(1,1); UPDATE tb SET b=11 WHERE a=1; 会被压缩成 INSERT INTO tb(a,b) VALUES(1,11); 其中 a 为主键
# 如 UPDATE tb SET b=1 WHERE a=1; UPDATE tb(a,b) SET b=2 WHERE a=1; 会被压缩成 UPDATE tb(a,b) SET b=2 WHERE a=1; 其中 a 为主键
# 如 DELETE FROM tb WHERE a=1; INSERT INTO tb(a,b) VALUES(1,1); 会被压缩成 REPLACE INTO tb(a,b) VALUES(1,1); 其中 a 为主键
compact: false
# 设置为 true,DM 会尽可能地将多条同类型的语句合并到一条语句中,生成一条带多行数据的 SQL 语句。
# 如 INSERT INTO tb(a,b) VALUES(1,1); INSERT INTO tb(a,b) VALUES(2,2); 会变成 INSERT INTO tb(a,b) VALUES(1,1),(2,2);
# 如 UPDATE tb SET b=11 WHERE a=1; UPDATE tb(a,b) set b=22 WHERE a=2; 会变成 INSERT INTO tb(a,b) VALUES(1,11),(2,22) ON DUPLICATE KEY UPDATE a=VALUES(a), b=VALUES(b); 其中 a 为主键
# 如 DELETE FROM tb WHERE a=1; DELETE FROM tb WHERE a=2 会变成 DELETE FROM tb WHERE (a) IN (1),(2);其中 a 为主键
multiple-rows: false
# ----------- 实例配置 -----------
mysql-instances:
-
source-id: "mysql-replica-01" # 对应 source.toml 中的 `source-id`
meta: # `task-mode` 为 `incremental` 且下游数据库的 `checkpoint` 不存在时 binlog 迁移开始的位置; 如果 checkpoint 存在,则以 `checkpoint` 为准
binlog-name: binlog.000001
binlog-pos: 4
binlog-gtid: "03fc0263-28c7-11e7-a653-6c0b84d59f30:1-7041423,05474d3c-28c7-11e7-8352-203db246dd3d:1-170" # 对于 source 中指定了 `enable-gtid: true` 的增量任务,需要指定该值
route-rules: ["route-rule-1", "route-rule-2"] # 该上游数据库实例匹配的表到下游数据库的 table routing 规则名称
filter-rules: ["filter-rule-1", "filter-rule-2"] # 该上游数据库实例匹配的表的 binlog event filter 规则名称
block-allow-list: "bw-rule-1" # 该上游数据库实例匹配的表的 block-allow-list 过滤规则名称,如果 DM 版本早于 v2.0.0-beta.2 则使用 black-white-list
expression-filters: ["even_c"] # 使用名为 even_c 的表达式过滤规则
mydumper-config-name: "global" # mydumpers 配置的名称
loader-config-name: "global" # loaders 配置的名称
syncer-config-name: "global" # syncers 配置的名称
-
source-id: "mysql-replica-02" # 对应 source.toml 中的 `source-id`
mydumper-thread: 4 # dump 处理单元用于导出数据的线程数量,等同于 mydumpers 配置中的 `threads`,当同时指定它们时 `mydumper-thread` 优先级更高
loader-thread: 16 # load 处理单元用于导入数据的线程数量,等同于 loaders 配置中的 `pool-size`,当同时指定它们时 `loader-thread` 优先级更高。当有多个实例同时向 TiDB 迁移数据时可根据负载情况适当调小该值
syncer-thread: 16 # sync 处理单元用于复制增量数据的线程数量,等同于 syncers 配置中的 `worker-count`,当同时指定它们时 `syncer-thread` 优先级更高。当有多个实例同时向 TiDB 迁移数据时可根据负载情况适当调小该值
遇见问题
上游MySQL数据库清理binlog
现象
原因
在全量迁移过程中,上游数据源清理了binlog日志,从而触发dm中的dump组件无法获取已记录元数据metadata中的binlog位置,最终导致作业任务失败。
处理方案
只能清空下游数据库已同步数据,并在停止任务后加上 --remove-meta
参数重建任务
tiup dmctl --master-addr=192.168.10.217:8261 stop-task myrule02.yaml
tiup dmctl --master-addr=192.168.10.217:8261 check-task myrule02.yaml
tiup dmctl --master-addr=192.168.10.217:8261 start-task --remove-meta myrule02.yaml