最近尝试使用MySql,建了一个表40列,每次通过Entity List的方式写入1000条数据。
saveBatch(list);
通过StopWatch一查看,区区1000行数据竟然用时10S,简直不能忍。
开始以为是MybatisPlus的问题,查看了源码,人家的确是批量写入的,没啥毛病。
一番搜索,网友给出了如下方案
数据库连接参数配置了 rewriteBatchedStatements=true 最终得以解决!
master.jdbc.url=jdbc:mysql://xxx.xx.xxx.xx:3306/outreach_platform?useUnicode=true&characterEncoding=utf8&allowMultiQueries=true&rewriteBatchedStatements=true
经修改及测试,我的1000条数据写入时间稳定在500ms,在不修改代码,不调整数据库的情况下性能提升高达20倍。
参考:
Mybatis-plus批量插入、批量修改数据saveBatch等速度缓慢
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!