批量插入大数据量数据优化方案之分批写入
第一种就是自己分批写入:建立新list大小为500,然后循环你的数据
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 | List<OrderVO> list=mapper.getList(); //从数据库查询出来的list,也就是需要进行批量插入的总list //一次插入的条数,也就是分批的list大小 int pointsDataLimit = 500 ; int listSize=list.size(); int maxSize=listSize - 1 ; List<OrderVO> newList = new ArrayList<OrderVO>(); //新建一个载体list for ( int i = 0 ; i < listSize; i++) { //分批次处理 newList.add(list.get(i)); //循环将数据填入载体list if (pointsDataLimit == newList.size() || i == maxSize) { //载体list达到要求,进行批量操作 //调用批量插入 mapper.insertList(newList); newList.clear(); //每次批量操作后,清空载体list,等待下次的数据填入 } } |
第二种导入apache的包,使用他的 Lists.partition()
1 2 3 4 5 | <dependency> <groupId>org.apache.commons</groupId> <artifactId>commons-collections4</artifactId> <version> 4.4 </version> </dependency> |
1 2 3 4 5 6 7 8 | List<Integer> list= new ArrayList<>(); for ( int i= 0 ;i< 500 ;i++){ list.add(i); } List<List<Integer>> newList = Lists.partition(list, 150 ); for (List<Integer> list1:newList){ System.out.println(list1.size()); } |
第三种使用guava的包
1 2 3 4 5 | <dependency> <groupId>com.google.guava</groupId> <artifactId>guava</artifactId> <version> 31.0 . 1 -jre</version> </dependency> |
1 2 3 4 5 6 7 8 | List<Integer> list= new ArrayList<>(); for ( int i= 0 ;i< 500 ;i++){ list.add(i); } List<List<Integer>> newList = Lists.partition(list, 150 ); for (List<Integer> list1:newList){ System.out.println(list1.size()); } |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 25岁的心里话
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现