ClickHouse学习系列之八【数据导入迁移&同步】
背景
在介绍了一些ClickHouse相关的系列文章之后,大致对ClickHouse有了比较多的了解。它是一款非常优秀的OLAP数据库,为了更好的来展示其强大的OLAP能力,本文将介绍一些快速导入大量数据到ClickHouse的方法。如:通过文件、远程数据库等方式。
说明
一、其他数据库导入到ClickHouse
MySQL可以做为ClickHouse的外部存储类型,还有其他的存储类型,如:MongoDB、PostgreSQL、HDFS、JDBC、ODBC、Kafka、File、RabbitMQ、S3等等,具体的可以看官网说明。本文介绍MySQL、MongoDB、File三种方式的导入,前2种方式相当于链表。
① MySQL数据导入到ClickHouse
方法一: 外部引擎,建立远程表
MySQL引擎允许对存储在远程 MySQL 服务器上的数据执行 SELECT 和 INSERT 查询,不能执行DELETE 和 UPDATE。
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster] ( name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1] [TTL expr1], name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2] [TTL expr2], ... ) ENGINE = MySQL('host:port', 'database', 'table', 'user', 'password'[, replace_query, 'on_duplicate_clause']) SETTINGS [connection_pool_size=16, ] [connection_max_tries=3, ] [connection_auto_close=true ] ;
建议:列名相同。参数 external_table_functions_use_nulls 表示如何处理null值,默认1,可选值0。1:可以为null,0:不能为null,使用默认值代替。MySQL的参数说明:
-
host:port
— MySQL 地址 -
database
— MySQL数据库名 -
table
— MySQL表名 -
user
— MySQL 用户 -
password
— MySQL用户密码 -
replace_query
— 默认0,对应replace into。设置1这会用replace into 代替 insert into -
on_duplicate_clause
— 默认0,对应ON DUPLICATE KEY。设置1这会代替 insert into,和replace_query互斥
例子:
CREATE TABLE testdb.test ( `id` UInt32, `c1` Date COMMENT 'c1', `c2` DateTime COMMENT 'c2', `c3` String COMMENT 'c3', `c4` UInt32 COMMENT 'c4' ) ENGINE = MySQL('10.10.10.10:3306','test','test','dba','dba')
注意:在查询远程表的时候,除了where条件会带入到远程的MySQL中,其余的条件(聚合),包含limit都会在ClickHouse本地执行,而远程则执行全表扫描。最后可以对该表执行 SELECT 和 INSERT 查询,不能执行DELETE 和 UPDATE。
此后就可以在ClickHouse上创建符合要求的引擎表,如MergeTree引擎,再通过以下SQL来进行导入数据。
insert into ck_tb select * from my_tb
方法二:和方法一类似,不过方法二是直接用了mysql函数来进行远程访问:建立需要的引擎,再用mysql函数进行远程导入,可以指定列来导入数据,把*改成具体列名。
insert into ck_tb select * from mysql('host:port', 'database', 'table', 'user', 'password')
mysql函数里的参数可以参考方法一的说明。
例子:
-- 建立表 CREATE TABLE testdb.test_ck1 ( `id` UInt32, `c1` Date COMMENT 'c1', `c2` DateTime COMMENT 'c2', `c3` String COMMENT 'c3', `c4` UInt32 COMMENT 'c4' ) ENGINE = MergeTree PARTITION BY c1 ORDER BY id -- 插入数据 INSERT INTO test_ck1 SELECT * FROM mysql('10.10.10.10:3306','test','test','dba','dba')
方法三:create + select
CREATE TABLE [IF NOT EXISTS] [db.]table_name ENGINE = ENGINE AS SELECT * FROM mysql('host:port', 'database', 'table', 'user', 'password')
mysql函数里的参数可以参考方法一的说明。
例子:
create table test_ck2 engine = MergeTree order by id as select * from mysql('10.10.10.10:3306','test','test','dba','dba'); 或 create table test_ck2 engine = Log as select * from mysql('10.10.10.10:3306','test','test','dba','dba');
通过该方法的导入,不需要事先建立表,它会自动根据select出来的数据按照需要创建符合要求的类型。
② MongoDB数据导入到ClickHouse
MongoDB引擎允许对存储在远程 MongoDB 服务器上的数据执行 SELECT 查询,不能执行 INSERT、DELETE 和 UPDATE。
CREATE TABLE [IF NOT EXISTS] [db.]table_name ( name1 [type1], name2 [type2], ... ) ENGINE = MongoDB(host:port, database, collection, user, password);
建议:列名相同。MongoDB的参数说明:
-
host:port
— MongoDB 地址. -
database
— MongoDB 数据库名 -
collection
— MongoDB 集合名 -
user
— MongoDB 用户 -
password
— MongoDB 密码
例子:
CREATE TABLE mongo_table ( key UInt64, data String ) ENGINE = MongoDB('mongo1:27017', 'test', 'simple_table', 'testuser', 'clickhouse');
注意:相对于MySQL,MongoDB远程表还不允许INSERT。此后就可以在ClickHouse上创建符合要求的引擎表,如MergeTree引擎,再通过以下SQL来进行导入数据。
insert into ck_tb select * from mon_tb
MongoDB目前只作为一个外部引擎,不像MySQL还能作为一个函数进行远程操作,所以MySQL数据处理中的方法二、三不适用于MongoDB数据的处理。
③ File数据导入到ClickHouse:外部引擎和函数
和MySQL引擎导入方法类似, 支持并发读,不支持并发插入。不支持ALTER、索引和副本
方法一:外部引擎(建立远程表)
CREATE TABLE file_engine_table (name String, value UInt32) ENGINE=File(Format)
File函数里的参数Format的取值可以看文档,这里说明下csv的例子。
-- 建立表 create table csv_table(id UInt64,name String)engine = File('CSV'); -- 在表目录里创建文件或则导入文件,必须命名为data.CSV $ cat data.CSV 1,a 2,b 3,c 4,d 5,e -- 这样,在表里就可以看到数据了 :) select * from csv_table; ┌─id─┬─name─┐ │ 1 │ a │ │ 2 │ b │ │ 3 │ c │ │ 4 │ d │ │ 5 │ e │ └────┴──────┘
注意:File引擎的表,可以对其进行SELECT、INSERT,不能进行DELETE、UPDATE。此后就可以在ClickHouse上创建符合要求的引擎表,如MergeTree引擎,再通过以下SQL来进行导入数据。
insert into ck_tb select * from csv_tb
方法二:
通过file函数导入数据,并且以表的形式展示,格式为:
select * from file(path, format, structure)
path
— 参数user_files_path下的相对路径,支持以下格式:*、?、{abc,def} 和 {N..M} ,其中 N、M — 数字、'abc'、'def' — 字符串。format
— 文件格式structure
— 表结构。 格式:'column1_name column1_type, column2_name column2_type, ...'
在config.xml文件中找到参数user_files_path,在该参数指定的目录下创建一个csv文件:
$ cat test.csv 1,a,123 2,b,234 3,c,345 4,d,456 5,e,567
然后通过SQL查询:
:) SELECT * FROM file('test.csv', 'CSV', 'column1 UInt32, column2 String, column3 UInt32'); ┌─column1─┬─column2─┬─column3─┐ │ 1 │ a │ 123 │ │ 2 │ b │ 234 │ │ 3 │ c │ 345 │ │ 4 │ d │ 456 │ │ 5 │ e │ 567 │ └─────────┴─────────┴─────────┘
如果该目录下有多个csv文件:test.csv、test1.csv、test2.csv,则可以通过通配符来进行全部加载读取:
:) SELECT * FROM file('test*.csv', 'CSV', 'column1 UInt32, column2 String, column3 UInt32'); ┌─column1─┬─column2─┬─column3─┐ │ 1 │ aaa │ 123 │ │ 2 │ bbb │ 234 │ │ 3 │ ccc │ 345 │ │ 4 │ ddd │ 456 │ │ 5 │ eee │ 567 │ └─────────┴─────────┴─────────┘ ┌─column1─┬─column2─┬─column3─┐ │ 1 │ a │ 123 │ │ 2 │ b │ 234 │ │ 3 │ c │ 345 │ │ 4 │ d │ 456 │ │ 5 │ e │ 567 │ └─────────┴─────────┴─────────┘ ┌─column1─┬─column2─┬─column3─┐ │ 1 │ aa │ 123 │ │ 2 │ bb │ 234 │ │ 3 │ cc │ 345 │ │ 4 │ dd │ 456 │ │ 5 │ ee │ 567 │ └─────────┴─────────┴─────────┘
此后就可以在ClickHouse上创建符合要求的引擎表,如MergeTree引擎,再通过以下SQL来进行导入数据。
:) insert into csv_table_ck SELECT * FROM file('test*.csv', 'CSV', 'column1 UInt32, column2 String, column3 UInt32')
方法三: create + select
CREATE TABLE [IF NOT EXISTS] [db.]table_name ENGINE = ENGINE AS SELECT * FROM file(path, format, structure)
例子:
:) create table csv_table_ck1 engine = MergeTree ORDER BY column1 as SELECT * FROM file('test*.csv', 'CSV', 'column1 UInt32, column2 String, column3 UInt32');
注意:需要在file函数的参数structure指定的表结构字段中选取字段进行 ORDER BY 的指定设置。并且通过该方法的导入,不需要事先建立表,它会自动根据select出来的数据按照需要创建符合要求的类型。
方法四:也可以通过输入流来进行数据的导入,clickhouse-local
$ echo -e "1,2\n3,4" | clickhouse-local -q "CREATE TABLE table (a Int64, b Int64) ENGINE = File(CSV, stdin); SELECT a, b FROM table; DROP TABLE table"
二、MySQL同步到ClickHouse(实验阶段)
ClickHouse推出了MaterializeMySQL数据库引擎,用于将MySQL服务器中的表映射到ClickHouse中。ClickHouse服务做为MySQL副本,读取Binlog并执行DDL和DML请求,实现了基于MySQL Binlog机制的业务数据库实时同步功能:支持全量和增量同步,首次创建数据库引擎时进行一次全量复制,之后通过监控binlog变化进行增量数据同步。阿里云上也有介绍说明。
CREATE DATABASE [IF NOT EXISTS] db_name [ON CLUSTER cluster] ENGINE = MaterializeMySQL('host:port', ['database' | database], 'user', 'password') [SETTINGS ...]
host:port
— MySQL 地址database
— MySQL 数据库名user
— MySQL 用户名,具有MySQL库的RELOAD、REPLICATION SLAVE、REPLICATION CLIENT以及SELECT PRIVILEGE权限password
— MySQL 密码
使用MaterializeMySQL数据库引擎,同步到ClickHouse集群上表的默认引擎为ReplacingMergeTree,并会在表中增加2个虚拟列:
_version
— 事务计数器,记录数据版本信息。UInt64类型。_sign
— 删除标记,标记该行是否删除。TypeInt8类型:1
— 未删除-1
— 已删除
测试:
MaterializeMySQL数据库引擎需要开启allow_experimental_database_materialize_mysql参数。即需要设置为1:
SET allow_experimental_database_materialize_mysql = 1
以上SET 只是更改了当前会话中的值,分布式 DDL 在单独的会话中执行,SET 不影响它。 应该在服务器配置中全局启用 allow_experimental_database_materialize_mysql 设置,如:
修改user.xml:
<profiles> <!-- Default settings. --> <default> ... <allow_experimental_database_materialize_mysql>1</allow_experimental_database_materialize_mysql> </default> ... </profiles>
修改config.xml:
<distributed_ddl> ... <path>/clickhouse/task_queue/ddl</path> <allow_experimental_database_materialize_mysql>1</allow_experimental_database_materialize_mysql> ... </distributed_ddl>
修改这些配置是动态生效的,可以查看该参数是否修改成功:
:) SELECT * FROM system.settings WHERE name = 'allow_experimental_database_materialize_mysql'; ┌─name──────────────────────────────────────────┬─value─┬─changed─┬─description─────────────────────────────────────────────────┬─min──┬─max──┬─readonly─┬─type─┐ │ allow_experimental_database_materialize_mysql │ 1 │ 1 │ Allow to create database with Engine=MaterializeMySQL(...). │ ᴺᵁᴸᴸ │ ᴺᵁᴸᴸ │ 0 │ Bool │ └───────────────────────────────────────────────┴───────┴─────────┴─────────────────────────────────────────────────────────────┴──────┴──────┴──────────┴──────┘
现在可以开始MaterializeMySQL数据库引擎来同步MySQL数据库了。需要注意的是MySQL的binlog格式为Row,并且开启GTID。
①:创建MaterializeMySQL数据库:同步MySQL的ck_test库中的表
:) create database mysql_2_ck ENGINE = MaterializeMySQL('10.10.10.10:3306','ck_test','test','test');
②:全量同步
-- 全量: 通过 select * from tb 拉取MySQL的全量数据进行同步,再在本地ClickHouse上回放
③:增量同步
-- 增量: 通过订阅MySQL binlog来进行增量同步,在mysql上可以看到 Binlog Dump GTID 的订阅线程,再在本地ClickHouse上回放
④:记录MySQL Binlog信息
-- 记录 binlog 信息 在<path>指定的目录下的metadata/dbname中保存binlog和position:<path>/metadata/dbname/.metadata
通过①~⑤同步关系已经搭建完成,为了测试同步效果,进行测试:测试同步包括:insert,update,delete,alter,create,drop,truncate等大部分DML和DDL操作
说明:在①中已经建立了ClickHouse【mysql_2_ck】和MySQL【ck_test】库的同步,后续操作在该库中进行。
新建表 -- mysql> CREATE TABLE employees ( -> emp_no INT NOT NULL, -> birth_date DATE NOT NULL, -> first_name VARCHAR(14) NOT NULL, -> last_name VARCHAR(16) NOT NULL, -> gender CHAR(3) NOT NULL, -> hire_date DATE NOT NULL, -> PRIMARY KEY (emp_no) -> ) ENGINE=INNODB; -- clickhouse :) show create table employees\G statement: CREATE TABLE mysql_2_ck.employees ( `emp_no` Int32, `birth_date` Date, `first_name` String, `last_name` String, `gender` String, `hire_date` Date, `_sign` Int8 MATERIALIZED 1, `_version` UInt64 MATERIALIZED 1, INDEX _version _version TYPE minmax GRANULARITY 1 ) ENGINE = ReplacingMergeTree(_version) PARTITION BY intDiv(emp_no, 4294967) ORDER BY tuple(emp_no) SETTINGS index_granularity = 8192 新增数据 -- mysql> INSERT INTO `employees` VALUES (10001,'1953-09-02','Georgi','Facello','M','1986-06-26'), -> (10002,'1964-06-02','Bezalel','Simmel','F','1985-11-21'), -> (10003,'1959-12-03','Parto','Bamford','M','1986-08-28'), -> (10004,'1954-05-01','Chirstian','Koblick','M','1986-12-01'), -> (10005,'1955-01-21','Kyoichi','Maliniak','M','1989-09-12'), -> (10006,'1953-04-20','Anneke','Preusig','F','1989-06-02'), -> (10007,'1957-05-23','Tzvetan','Zielinski','F','1989-02-10'), -> (10008,'1958-02-19','Saniya','Kalloufi','M','1994-09-15'), -> (10009,'1952-04-19','Sumant','Peac','F','1985-02-18'), -> (10010,'1963-06-01','Duangkaew','Piveteau','F','1989-08-24'), -> (10011,'1953-11-07','Mary','Sluis','F','1990-01-22'), -> (10012,'1960-10-04','Patricio','Bridgland','M','1992-12-18'), -> (10013,'1963-06-07','Eberhardt','Terkki','M','1985-10-20'), -> (10014,'1956-02-12','Berni','Genin','M','1987-03-11'), -> (10015,'1959-08-19','Guoxiang','Nooteboom','M','1987-07-02'), -> (10016,'1961-05-02','Kazuhito','Cappelletti','M','1995-01-27'), -> (10017,'1958-07-06','Cristinel','Bouloucos','F','1993-08-03'), -> (10018,'1954-06-19','Kazuhide','Peha','F','1987-04-03'); -- clickhouse :) select * from mysql_2_ck.employees; ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name───┬─gender─┬──hire_date─┐ │ 10002 │ 2143-11-07 │ Bezalel │ Simmel │ F │ 1985-11-21 │ │ 10006 │ 2132-09-24 │ Anneke │ Preusig │ F │ 1989-06-02 │ │ 10011 │ 2133-04-13 │ Mary │ Sluis │ F │ 1990-01-22 │ │ 10015 │ 2139-01-23 │ Guoxiang │ Nooteboom │ M │ 1987-07-02 │ │ 10016 │ 2140-10-06 │ Kazuhito │ Cappelletti │ M │ 1995-01-27 │ └────────┴────────────┴────────────┴─────────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10004 │ 2133-10-05 │ Chirstian │ Koblick │ M │ 1986-12-01 │ │ 10009 │ 2131-09-24 │ Sumant │ Peac │ F │ 1985-02-18 │ │ 10013 │ 2142-11-11 │ Eberhardt │ Terkki │ M │ 1985-10-20 │ │ 10018 │ 2133-11-23 │ Kazuhide │ Peha │ F │ 1987-04-03 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10003 │ 2139-05-09 │ Parto │ Bamford │ M │ 1986-08-28 │ │ 10007 │ 2136-10-27 │ Tzvetan │ Zielinski │ F │ 1989-02-10 │ │ 10010 │ 2142-11-05 │ Duangkaew │ Piveteau │ F │ 1989-08-24 │ │ 10014 │ 2135-07-19 │ Berni │ Genin │ M │ 1987-03-11 │ │ 10017 │ 2137-12-10 │ Cristinel │ Bouloucos │ F │ 1993-08-03 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10001 │ 2133-02-06 │ Georgi │ Facello │ M │ 1986-06-26 │ │ 10005 │ 2134-06-27 │ Kyoichi │ Maliniak │ M │ 1989-09-12 │ │ 10008 │ 2137-07-26 │ Saniya │ Kalloufi │ M │ 1994-09-15 │ │ 10012 │ 2140-03-10 │ Patricio │ Bridgland │ M │ 1992-12-18 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ 删除数据 -- mysql> delete from employees where emp_no >10010; Query OK, 8 rows affected (0.01 sec) -- clickhouse :) select * from mysql_2_ck.employees; ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10001 │ 2133-02-06 │ Georgi │ Facello │ M │ 1986-06-26 │ │ 10005 │ 2134-06-27 │ Kyoichi │ Maliniak │ M │ 1989-09-12 │ │ 10008 │ 2137-07-26 │ Saniya │ Kalloufi │ M │ 1994-09-15 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10004 │ 2133-10-05 │ Chirstian │ Koblick │ M │ 1986-12-01 │ │ 10009 │ 2131-09-24 │ Sumant │ Peac │ F │ 1985-02-18 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10003 │ 2139-05-09 │ Parto │ Bamford │ M │ 1986-08-28 │ │ 10007 │ 2136-10-27 │ Tzvetan │ Zielinski │ F │ 1989-02-10 │ │ 10010 │ 2142-11-05 │ Duangkaew │ Piveteau │ F │ 1989-08-24 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10002 │ 2143-11-07 │ Bezalel │ Simmel │ F │ 1985-11-21 │ │ 10006 │ 2132-09-24 │ Anneke │ Preusig │ F │ 1989-06-02 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ 修改数据 -- mysql> update employees set hire_date = hire_date+1 where emp_no <10005; Query OK, 4 rows affected (0.01 sec) -- clickhouse :) select * from mysql_2_ck.employees; ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10001 │ 2133-02-06 │ Georgi │ Facello │ M │ 1986-06-27 │ │ 10005 │ 2134-06-27 │ Kyoichi │ Maliniak │ M │ 1989-09-12 │ │ 10008 │ 2137-07-26 │ Saniya │ Kalloufi │ M │ 1994-09-15 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10003 │ 2139-05-09 │ Parto │ Bamford │ M │ 1986-08-29 │ │ 10007 │ 2136-10-27 │ Tzvetan │ Zielinski │ F │ 1989-02-10 │ │ 10010 │ 2142-11-05 │ Duangkaew │ Piveteau │ F │ 1989-08-24 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10002 │ 2143-11-07 │ Bezalel │ Simmel │ F │ 1985-11-22 │ │ 10006 │ 2132-09-24 │ Anneke │ Preusig │ F │ 1989-06-02 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ ┌─emp_no─┬─birth_date─┬─first_name─┬─last_name─┬─gender─┬──hire_date─┐ │ 10004 │ 2133-10-05 │ Chirstian │ Koblick │ M │ 1986-12-02 │ │ 10009 │ 2131-09-24 │ Sumant │ Peac │ F │ 1985-02-18 │ └────────┴────────────┴────────────┴───────────┴────────┴────────────┘ 修改表结构 - 新增字段 -- mysql> alter table employees add age int after gender; Query OK, 0 rows affected (0.08 sec) -- clickhouse :) desc mysql_2_ck.employees; ┌─name───────┬─type────────────┬─default_type─┬─default_expression─┬─comment─┬─codec_expression─┬─ttl_expression─┐ │ emp_no │ Int32 │ │ │ │ │ │ │ birth_date │ Date │ │ │ │ │ │ │ first_name │ String │ │ │ │ │ │ │ last_name │ String │ │ │ │ │ │ │ gender │ String │ │ │ │ │ │ │ age │ Nullable(Int32) │ │ │ │ │ │ │ hire_date │ Date │ │ │ │ │ │ │ _sign │ Int8 │ MATERIALIZED │ 1 │ │ │ │ │ _version │ UInt64 │ MATERIALIZED │ 1 │ │ │ │ └────────────┴─────────────────┴──────────────┴────────────────────┴─────────┴──────────────────┴────────────────┘ - 删除字段 -- mysql> alter table employees drop age; Query OK, 0 rows affected (0.09 sec) -- clickhouse :) desc mysql_2_ck.employees; ┌─name───────┬─type───┬─default_type─┬─default_expression─┬─comment─┬─codec_expression─┬─ttl_expression─┐ │ emp_no │ Int32 │ │ │ │ │ │ │ birth_date │ Date │ │ │ │ │ │ │ first_name │ String │ │ │ │ │ │ │ last_name │ String │ │ │ │ │ │ │ gender │ String │ │ │ │ │ │ │ hire_date │ Date │ │ │ │ │ │ │ _sign │ Int8 │ MATERIALIZED │ 1 │ │ │ │ │ _version │ UInt64 │ MATERIALIZED │ 1 │ │ │ │ └────────────┴────────┴──────────────┴────────────────────┴─────────┴──────────────────┴────────────────┘ 新增索引 -- ClickHouse不会同步 删除索引 -- ClickHouse不会同步 修改字段长度 -加长 -- mysql> alter table employees modify age bigint; -- clickhouse :) desc employees; ┌─name───────┬─type─────────────┬─default_type─┬─default_expression─┬─comment─┬─codec_expression─┬─ttl_expression─┐ │ emp_no │ Int32 │ │ │ │ │ │ │ birth_date │ Date │ │ │ │ │ │ │ first_name │ String │ │ │ │ │ │ │ last_name │ String │ │ │ │ │ │ │ gender │ String │ │ │ │ │ │ │ age │ Nullable(Int64) │ │ │ │ │ │ │ address │ Nullable(String) │ │ │ │ │ │ │ hire_date │ Date │ │ │ │ │ │ │ _sign │ Int8 │ MATERIALIZED │ 1 │ │ │ │ │ _version │ UInt64 │ MATERIALIZED │ 1 │ │ │ │ └────────────┴──────────────────┴──────────────┴────────────────────┴─────────┴──────────────────┴────────────────┘ -改短 -- mysql> alter table employees modify age int; -- clickhouse :) desc employees; ┌─name───────┬─type─────────────┬─default_type─┬─default_expression─┬─comment─┬─codec_expression─┬─ttl_expression─┐ │ emp_no │ Int32 │ │ │ │ │ │ │ birth_date │ Date │ │ │ │ │ │ │ first_name │ String │ │ │ │ │ │ │ last_name │ String │ │ │ │ │ │ │ gender │ String │ │ │ │ │ │ │ age │ Nullable(Int32) │ │ │ │ │ │ │ address │ Nullable(String) │ │ │ │ │ │ │ hire_date │ Date │ │ │ │ │ │ │ _sign │ Int8 │ MATERIALIZED │ 1 │ │ │ │ │ _version │ UInt64 │ MATERIALIZED │ 1 │ │ │ │ └────────────┴──────────────────┴──────────────┴────────────────────┴─────────┴──────────────────┴────────────────┘ 修改字段名 -- ClickHouse 不支持,同步报错 修改字段备注 -- ClickHouse 不会同步 清空表 -- mysql> truncate table employees; Query OK, 0 rows affected (0.02 sec) -- ClickHouse:) select * from mysql_2_ck.employees; 0 rows in set. Elapsed: 0.002 sec. 重命名表 -- ClickHouse 正常同步 删除表 -- ClickHouse 正常同步
在测试中发现有以下几个情况会导致复制同步异常,可能不全,后续有情况会继续更新,目前发现的有:
- 没有主键
- 字段类型为:Enum、bit、time、json
- 修改字段名
出现同步异常之后,会导致正常的ClickHouse上的表也不能读取,修复则需要删除整个库,再重新同步。如果使用MaterializeMySQL同步MySQL,不允许以上导致同步异常的情况发生。
因为MaterializeMySQL目前属于实验阶段,如果需要此功能,需要做好各种测试和验证。
除了自带的MaterializeMySQL可以同步MySQL数据之外,还可以用 Bifrost 来进行同步,该同步工具可以避免MaterializeMySQL同步字段类型的问题,单也有一些限制。具体的可以看官方介绍,该工具支持支持全量,增量同步。
总结
本文介绍了几种ClickHouse的导入方法,以及MySQL同步到ClickHouse的方法,这种数据批量导入和同步极大的方便了迁移数据的成本。后期官方如果完善MaterializeMySQL,相信ClickHouse将会进一步提高在OLAP上的使用率。