摘要: 1.在执行插入之前,必须要指定参数 spark.sql("set hive.exec.dynamic.partition.mode=nonstrict") spark.sql('''set mapred.output.compress=true''') spark.sql('''set hive.e 阅读全文
posted @ 2019-03-05 18:38 剑未佩妥出门已是江湖 阅读(696) 评论(1) 推荐(0) 编辑