[Spark] pyspark insertInto 去重插入数据表
pyspark有个bug, 虽然下面代码写了 write.mode("overwrite")但是不生效
spark.conf.set("hive.exec.dynamic.partition.mode", "constrict") db_df.repartition(1).write.mode("overwrite").insertInto("TABLE")
所以会导致TABLE内数据有重复的现象。
如何去重插入数据表?
在insertInto("TABLE", True) 加上True参数即可,表示的同样是"isOverwrite".