Bulk Insert & BCP执行效率对比
我们以BCP导出的CSV数据文件,分别使用Bulk insert与BCP导入数据库,对比两种方法执行效率
备注:导入目标表创建了分区聚集索引
1.BCP导出csv数据文件
数据量:15000000行,21.7G
导出作业形式:局域网服务器向客户端导出
执行导出:
bcp [spc].[dbo].[bcc] out "c:\data\bcc.csv" -c -t"," -r"\n" -S"43.xxx.xxx.xxx" -U"sa" -P"*******"
历时:16:10~18:26
2.BCP导入csv
数据量:15000000行,21.7G
导入作业形式:局域网客户端向服务器
执行导入:
bcp [spc].[dbo].[bcc2] in "c:\data\bcc.csv" -c -t"," -r"\n" -S"43.xxx.xxx.xxx" -U"sa" -P"*******"
历时:09:41~19:44,10个小时,未执行完成中止
3.Bulk Insert导入csv
数据量:15000000行,21.7G
导入作业形式:csv文件拷贝到服务器,直接在服务器端作业
执行导入
bulk insert bcc3
from 'd:\\db\bcc.csv'
with(
fieldterminator=',',
rowterminator='\n',
datafiletype='char'
)
历时:17:42~19:44,02:02:00(未执行完)
总结:
1. 由于最初计划在局域网下,采用同样客户端向服务器端导数据,以测试两种方法效率高下;
但使用bcp作业一半时,已经是4+个小时,太慢,所以中途决定将Bulk Insert直接在服务器上作业;
以上测试结果,若不考虑网络因素,Bulk Insert效率更高;
2.导入过程,索引必然是影响效率的重要原因 ;
后面有时间,再使用BCP直接在服务器上作业测试下实际效率,以及删除索引对比两种方式时间
--2017-02-20 bulk insert 执行记录
dbo.aTest 43万行,历时28s
BULK INSERT dbo.aTest
from 'c:\\v_atresults'
with(
rowterminator='\n',
fieldterminator=','
)
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 通过 API 将Deepseek响应流式内容输出到前端
· AI Agent开发,如何调用三方的API Function,是通过提示词来发起调用的吗