java 分批处理数据工具类
`package com.ly.cloud.base.unit;
import java.util.LinkedList;
import java.util.List;
/**
-
处理因为list太长 批量插入sql报错的问题
*/
public class BatchSaveUtil{ public interface PreAddObjectFunction
{
void doPreHandle(T obj) ;
}/**
- 返回处理好的list
- @param list 数据源
- @param batchCount 分批数量 例子:假如是1000 则每1000条分批一次
- @param preAddObjectFunction 在add前对操作对象进行操作
- @return 返回分批好的数据源
*/
public List<List> getBatchList(List list,Integer batchCount,PreAddObjectFunction preAddObjectFunction){
if(list == null || list.size() <= 0) return null ;
List<List> batchList = new LinkedList<>() ;
ListtempList = null ;
for(int i = 0;i < list.size();i++){
T obj = list.get(i) ;
if(i % batchCount == 0){
tempList = new LinkedList<>() ;
batchList.add(tempList) ;
}
preAddObjectFunction.doPreHandle(obj) ;
tempList.add(obj) ;
}
return batchList ;
}
/**
- 这个不需要传回调
- @param list
- @param batchCount
- @return
*/
public List<List> getBatchList(List list,Integer batchCount){
return this.getBatchList(list,batchCount,obj -> {}) ;
}
}
// 调用列子
// 每次500的量新增
List
// 预处理
vo.setState("1");
});
if(CollectionUtils.isNotEmpty(list)){
for(UserDTO user: users){
rs = rs + insert(user);
}
}
`
方法二:
`int index = testListEntities.size() % 400 == 0 ? testListEntities.size() / 400 : testListEntities.size() / 400 + 1;
for (int i = 0; i < index; i++) {
//stream流表达式,skip表示跳过前i*400条记录,limit表示读取当前流的前400条记录
testListMapper.batchInsert(testListEntities.stream().skip(i * 400).limit(400).collect(Collectors.toList()));
}`
posted on 2021-03-05 13:52 HeavenTang 阅读(854) 评论(0) 编辑 收藏 举报
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix