【Flink SQL】Unable to convert to TimestampData from unexpected value of type java.lang.Long
需求
需要将Kafka的数据导入到Apache Druid,而Apache Druid的Ingestion时区是默认UTC+0的。
不能使用如下时间格式:
- '2021-09-28 10:00:00', 会被当成'2021-09-28T10:00:00Z'。
总结
- MYSQL CDC source 必须是
timestamp
,不能是timestamp_ltz
,否则Flink作业启动后,CDC的connector报错。 - MYSQL CDC source
server-time-zone
加了UTC+8,报错(说是找不到UTC+08:00这个TimeZone Entry),只能加'server-time-zone' = 'GMT+8'
。 - Upsert Kafka 要加
ISO-8610
属性,但是加了会把当前时间作为UTC+0,不加直接变成原始SQL时间戳。 - Upsert Kafka 时间列可以设置为 TIMESTAMP_LTZ,否则JSON依旧变成UTC+0。
- KAFKA Connector 属性叫
json.timestamp-format.standard
,KAFKA UPSERT Connector 的属性叫value.json.timestamp-format.standard
(slankka注) 。
Kafka Upsert Connector:
'value.json.timestamp-format.standard' = 'ISO-8601',
'key.format' = 'json',
'value.format' = 'json',
'value.fields-include' = 'ALL' -- EXCEPT_KEY:key不出现kafka消息的value中, 默认ALL(slankka注)
附录
如果CDC Source的列定义为timestamp_ltz,则报错如下: