2018年4月13日

摘要: 由于spark on hive 问题,导致无法插入数据,暂时使用spark进行hive操作 向分区表插入数据 hive> show partitions customers;OKpartitioncity=beijingcity=shenzhenTime taken: 0.071 seconds, 阅读全文

posted @ 2018-04-13 13:37 打杂滴 阅读(547) 评论(0) 推荐(0) 编辑


Copyright © 2024 打杂滴
Powered by .NET 8.0 on Kubernetes