另一种思维结局大数据量下merge into慢的问题
同事做一个导入一百万Excel数据量的需求,读取对象内存一下就溢出了,所以选择每次处理一万数据放入临时表中,最后对临时表100万数据进行去重后与目标表进行merge into ,加上存储的其他的逻辑,最后一个半小时都没有完成,且有时候回报回话中断的错误。最后建议根据merge into 的条件将目标表数据进行删除,删除后将临时表所有数据插入目标表,时间消耗果然比merge into 快了不少。而同事之前一直纠结于merge into 的语句的优化问题,上网搜了merge into 的用法后,使用三种使用方法的效率高的一种还是不行,所以我们有时候换一种思维方式会取到意想不到的结果@