Flink 电商实时数仓(二十七):ClickHouse基础(六)使用基础(3)副本
0 简介
副本的目的主要是保障数据的高可用性,即使一台 ClickHouse 节点宕机,那么也可以从其他服务器获得相同的数据。
1 副本写入流程
2 配置步骤
➢ 启动 zookeeper 集群
➢ 在hadoop202的/etc/clickhouse-server/config.d目录下创建一个名为metrika.xml的配置文件,内容如下:
<?xml version="1.0"?> <yandex> <zookeeper-servers> <node index="1"> <host>hadoop202</host> <port>2181</port> </node> <node index="2"> <host>hadoop203</host> <port>2181</port> </node> <node index="3"> <host>hadoop204</host> <port>2181</port> </node> </zookeeper-servers> </yandex>
➢ 同步到 hadoop203 和 hadoop204 上
sudo /home/atguigu/bin/xsync /etc/clickhouse-server/config.d/metrika.xml
➢ 在 hadoop202 的/etc/clickhouse-server/config.xml 中增加
<include_from>/etc/clickhouse-server/config.d/metrika.xml</include_from>
➢ 同步到 hadoop203 和 hadoop204 上
sudo /home/atguigu/bin/xsync /etc/clickhouse-server/config.xml
➢ 分别在 hadoop202 和 hadoop203 上启动 ClickHouse 服务
注意:因为修改了配置文件,如果以前启动了服务需要重启
[atguigu@hadoop202|3 ~]$ sudo systemctl start clickhouse-server
注意:我们演示副本操作只需要在 hadoop202 和 hadoop203 两台服务器即可,上面的操作,我们 hadoop204 可以你不用同步,我们这里为了保证集群中资源的一致性,做了同步。
➢ 在 hadoop202 和 hadoop203 上分别建表
副本只能同步数据,不能同步表结构,所以我们需要在每台机器上自己手动建表
◼ hadoop202
create table t_order_rep ( id UInt32, sku_id String, total_amount Decimal(16,2), create_time Datetime ) engine =ReplicatedMergeTree('/clickhouse/tables/01/t_order_rep','rep_202') partition by toYYYYMMDD(create_time) primary key (id) order by (id,sku_id);
◼ hadoop203
create table t_order_rep ( id UInt32, sku_id String, total_amount Decimal(16,2), create_time Datetime ) engine =ReplicatedMergeTree('/clickhouse/tables/01/t_order_rep','rep_203') partition by toYYYYMMDD(create_time) primary key (id) order by (id,sku_id);
◼ 参数解释
ReplicatedMergeTree 中,
第一个参数是分片的 zk_path 一般按照: /clickhouse/table/{shard}/{table_name} 的格式写,如果只有一个分片就写 01 即可。
第二个参数是副本名称,相同的分片副本名称不能相同。
➢ 在 hadoop202 上执行 insert 语句
insert into t_order_rep values (101,'sku_001',1000.00,'2020-06-01 12:00:00'), (102,'sku_002',2000.00,'2020-06-01 12:00:00'), (103,'sku_004',2500.00,'2020-06-01 12:00:00'), (104,'sku_002',2000.00,'2020-06-01 12:00:00'), (105,'sku_003',600.00,'2020-06-02 12:00:00');
➢ 在 hadoop203 上执行 select,可以查询出结果,说明副本配置正确
本文来自博客园,作者:秋华,转载请注明原文链接:https://www.cnblogs.com/qiu-hua/p/14587134.html