SSM Mybatis 批量插入 采用分批处理一次500条

在我们操作批量插入的时候,最直接的就是传入list进行批量插入(拼接sql),那么以这种方式进行批量操作,如果在数据量特别大的情况下,拼接的sql 的packet数据包大小是非常大的,也是很难预估的。

批量插入可以参考上篇文章:(https://blog.csdn.net/qq_35387940/article/details/100007472

那么下面,提供一种简单的分批处理,也就是把我们需要批量插入的list数据,假设是1万条数据, 我们分开500条一次批量插入:

            List<AgentRechargeOrder> list=mapper.getList(XXXX); //从数据库查询出来的list,也就是需要进行批量插入的总list
            //一次插入的条数,也就是分批的list大小
            int pointsDataLimit = 500;
            int listSize=list.size();
            int maxSize=listSize - 1;
            List<AgentRechargeOrder> newList = new ArrayList<AgentRechargeOrder>();//新建一个载体list
            for (int i = 0; i < listSize; i++) {
                //分批次处理
                newList.add(list.get(i));//循环将数据填入载体list
                if (pointsDataLimit == newList.size() || i == maxSize) {  //载体list达到要求,进行批量操作
                    //调用批量插入
                    mapper.insertList(newList);
                    newList.clear();//每次批量操作后,清空载体list,等待下次的数据填入
                }
            }

可以根据总数据量的大小,调整分批的list的size:
 int pointsDataLimit = 500;

示例:
下面是当总数据list为1293条时的运行日志,可以看到500条数据一次,分了两批次,最后剩余的293条数据单独一次:

posted on   小目标青年  阅读(354)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示