摘要: 临近春节,接到了一个导入数据的任务,在Linux客户端中的数据有50G,大约3亿3千万行; 刚开始很天真,把原始的txt/csv文件用sh脚本转化成了oralce 的insert into 语句,然后分割原始文件,用sqlplus@文件名导入。 结果,第二天直接把oracle数据搞趴掉了。 时间越来 阅读全文
posted @ 2016-01-27 14:33 kongmeng 阅读(574) 评论(0) 推荐(0) 编辑