Clickhouse 读取Kafka数据写入表

1、启动kafka和zookeeper

2、创建一个生产者

sh kafka2.6-start.sh producer demo

3、在ck中创建一个表

#创建一个流引擎
CREATE TABLE queue (create_time String, level UInt64, message String) ENGINE = Kafka('hadoop100:9092', 'demo', 'group1', 'CSV');

4、创建一个接受kafka引擎的表

#创建一个表结构
CREATE TABLE daily ( day Date,level UInt64, total UInt64) ENGINE = SummingMergeTree(day, (day, level), 8192);
或
CREATE TABLE daily1 ( create_time String, level UInt64, message String) ENGINE = MergeTree() PARTITION BY toYYYYMM(toDateTime(create_time)) ORDER BY create_time; 

5、创建一个物化视图,将Kafka流引擎数据导入MergeTree表中

#创建物化视图到 结构表daily中
CREATE MATERIALIZED VIEW consumer TO daily AS SELECT toDate(toDateTime(create_time)) AS day, level, count() as total FROM queue GROUP BY day, level;
或

CREATE MATERIALIZED VIEW consumer1 TO daily1 AS SELECT create_time, level, message FROM queue;

6、测试数据

"2022-04-11 17:33:21",1,"ceshi"

"2022-04-11",1,"ceshi"

7、查看表数据

select * from consumer1;

select * from daily1;

 

posted @   小白啊小白,Fighting  阅读(605)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 如何调用 DeepSeek 的自然语言处理 API 接口并集成到在线客服系统
· 【译】Visual Studio 中新的强大生产力特性
· 2025年我用 Compose 写了一个 Todo App
点击右上角即可分享
微信分享提示