ClickHouse 数据一致性

查询CK手册发现,即便对数据一致性支持最好的Mergetree,也只是保证最终一致性
我们在使用 ReplacingMergeTree、SummingMergeTree 这类表引擎的时候,会出现短暂数据不一致的情况。在某些对一致性非常敏感的场景,通常有以下几种解决方案。

1、准备测试表和数据

1、建表
CREATE TABLE test_a(
  user_id UInt64,
  score String,
  deleted UInt8 DEFAULT 0,
  create_time DateTime DEFAULT toDateTime(0)
)ENGINE= ReplacingMergeTree(create_time)
ORDER BY user_id;
其中:
user_id 是数据去重更新的标识;create_time 是版本号字段,每组数据中 create_time 最大的一行表示最新的数据;,deleted 是自定的一个标记位,比如 0 代表未删除,1  代表删除数据。
2、写入1000W数据
INSERT INTO TABLE test_a(user_id,score)
WITH(
  SELECT ['A','B','C','D','E','F','G']
)AS dict
SELECT number AS user_id, dict[number%7+1] FROM numbers(10000000);
3、修改前 50万 行数据,修改内容包括 name 字段和 create_time 版本号字段
INSERT INTO TABLE test_a(user_id,score,create_time)
WITH(
  SELECT ['AA','BB','CC','DD','EE','FF','GG']
)AS dict
SELECT number AS user_id, dict[number%7+1], now() AS create_time FROM numbers(500000);
4、统计总数
select count() test_a;

2 手动 OPTIMIZE

在写入数据后,立刻执行OPTIMIZE强制触发新写入分区的合并动作。生产环境不建议使用,使用 OPTIMIZE 会阻塞别人进行数据写入,性能开销大;
OPTIMIZE TABLE test_a FINAL;

语法:OPTIMIZE TABLE [db.]name [ON CLUSTER cluster] [PARTITION partition | PARTITION ID 'partition_id'] [FINAL] [DEDUPLICATE [BY expression]]

3 通过 Group by 去重

1、执行去重的查询

SELECT
  user_id ,
  argMax(score, create_time) AS score,
  argMax(deleted, create_time) AS deleted,
  max(create_time) AS ctime
FROM test_a
GROUP BY user_id
HAVING deleted = 0;
argMax(field1,field2):按照 field2 的最大值取 field1 的值,当我们更新数据时,会写入一行新的数据,例如上面语句中,通过查询最大的 create_time 得到修改后的score字段值。
2、创建视图,方便测试
复制代码
CREATE VIEW view_test_a AS
SELECT
  user_id ,
  argMax(score, create_time) AS score,
  argMax(deleted, create_time) AS deleted,
  max(create_time) AS ctime
FROM test_a
GROUP BY user_id
HAVING deleted = 0;
复制代码

3、插入重复数据,再次查询

#再次插入一条数据
INSERT INTO TABLE test_a(user_id,score,create_time) VALUES(0,'AAAA',now())
 
#再次查询
SELECT *
FROM view_test_a
WHERE user_id = 0;

4、删除数据测试

#再次插入一条标记为删除的数据
INSERT INTO TABLE test_a(user_id,score,deleted,create_time) VALUES(0,'AAAA',1,now());

#再次查询,刚才那条数据看不到了
SELECT *
FROM view_test_a
WHERE user_id = 0;
这行数据并没有被真正的删除,而是被过滤掉了。在一些合适的场景下,可以结合 表级别的 TTL 最终将物理数据删除。

4 通过 FINAL 查询

在查询语句后增加FINAL修饰符,这样在查询的过程中将会执行Merge的特殊逻辑(例如数据去重,预聚合等)。但是这种方法在早期版本基本没有人使用,因为在增加 FINAL之后,我们的查询将会变成一个单线程的执行过程,查询速度非常慢。在v20.5.2.7-stable版本中,FINAL查询支持多线程执行,并且可以通过max_final_threads 参数控制单个查询的线程数。但是目前读取part部分的动作依然是串行的。FINAL查询最终的性能和很多因素相关,列字段的大小、分区的数量等等都会影响到最终的查询时间,所以还要结合实际场景取舍。参考链接:https://github.com/ClickHouse/ClickHouse/pull/10463 使用hits_v1表进行测试:
新版本测试
普通语句查询
select *
from datasets.visits_v1
WHERE StartDate = '2014-03-17'
limit 100
settings
max_threads = 2;
查看执行计划:
复制代码
explain pipeline
select *
from datasets.visits_v1
WHERE StartDate = '2014-03-17'
limit 100
settings
max_threads = 2; 

(Expression)
ExpressionTransform × 2
  (SettingQuotaAndLimits)
    (Limit)
    Limit 22
      (ReadFromMergeTree)
      MergeTreeThread × 2 01
复制代码
明显将由2个线程并行读取 part 查询。
select *
from datasets.visits_v1 final
WHERE StartDate = '2014-03-17'
limit 100
settings
max_final_threads = 2;
查询速度没有普通的查询快,但是相比之前已经有了一些提升,查看 FINAL 查询的执行计划:
复制代码
explain pipeline select * from datasets.visits_v1 final WHERE StartDate = '2014-03-17' limit 100  settings max_final_threads = 2;
(Expression)
ExpressionTransform × 2
  (SettingQuotaAndLimits)
    (Limit)
    Limit 22
      (ReadFromMergeTree)
      ExpressionTransform × 2
        CollapsingSortedTransform × 2
          Copy 12
            AddingSelector
              ExpressionTransform
                MergeTree 01
复制代码
从CollapsingSortedTransform这一步开始已经是多线程执行,但是读取 part 部分的动作还是串行。
posted @   晓枫的春天  阅读(273)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 记一次.NET内存居高不下排查解决与启示
点击右上角即可分享
微信分享提示