javaapi、spark、flink 创建Iceberg表,hive 和impala无法正常读取解决
摘要:
spark、flink 创建Iceberg表中,元数据存储在hive 的meta_store,发现hive 或者impala无法正常读取报错。事实上解决方案是 在spark 、flink 的SQL中执行语句: add iceberg相关引擎的runntime的jar;ALTER TABLE t SE 阅读全文
posted @ 2023-11-02 15:25 一九七 阅读(291) 评论(0) 推荐(0) 编辑