批量插入大数据量数据优化方案之分批写入

第一种就是自己分批写入:建立新list大小为500,然后循环你的数据

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
List<OrderVO> list=mapper.getList(); //从数据库查询出来的list,也就是需要进行批量插入的总list
//一次插入的条数,也就是分批的list大小
int pointsDataLimit = 500;
int listSize=list.size();
int maxSize=listSize - 1;
List<OrderVO> newList = new ArrayList<OrderVO>();//新建一个载体list
for (int i = 0; i < listSize; i++) {
    //分批次处理
    newList.add(list.get(i));//循环将数据填入载体list
    if (pointsDataLimit == newList.size() || i == maxSize) {  //载体list达到要求,进行批量操作
        //调用批量插入
        mapper.insertList(newList);
        newList.clear();//每次批量操作后,清空载体list,等待下次的数据填入
    }
}

  

 

第二种导入apache的包,使用他的 Lists.partition()

1
2
3
4
5
<dependency>
    <groupId>org.apache.commons</groupId>
    <artifactId>commons-collections4</artifactId>
    <version>4.4</version>
</dependency>

  

1
2
3
4
5
6
7
8
List<Integer> list=new ArrayList<>();
for (int i=0;i<500;i++){
    list.add(i);
}
List<List<Integer>> newList = Lists.partition(list, 150);
for (List<Integer> list1:newList){
    System.out.println(list1.size());
}

  第三种使用guava的包

1
2
3
4
5
<dependency>
    <groupId>com.google.guava</groupId>
    <artifactId>guava</artifactId>
    <version>31.0.1-jre</version>
</dependency>

  

1
2
3
4
5
6
7
8
List<Integer> list=new ArrayList<>();
for (int i=0;i<500;i++){
    list.add(i);
}
List<List<Integer>> newList = Lists.partition(list, 150);
for (List<Integer> list1:newList){
    System.out.println(list1.size());
}

  

posted @   小小菜包子  阅读(416)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 25岁的心里话
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
点击右上角即可分享
微信分享提示