buguge - Keep it simple,stupid

知识就是力量,但更重要的,是运用知识的能力why buguge?

导航

java+sql实现mysql数据表的数据结转

数据表:emax_timer_request,存储的数据是mq数据消费的流水。

历史数据并没有什么用,所以,随着数据量的增大, 实现历史数据的自动结转。

 

 

 

程序的ORM是mybatisplus。

实现方案是基于新增数据的save方法。

TimerRequestManager.java----------->TimerRequestMapper.java---------------->TimerRequestMapper.xml

 

TimerRequestManager.java

这段代码解决的问题是:何时结转?

  1. 把数据记录数放到redis里,每次有新增记录时调用incr命令实现递增计数。 当这个计数值超过20w时,就是说,当表里的数据达到20w条时,开始结转数据。
  2. 为了不影响插入性能,结转的程序放在异步线程里执行。
  3. 考虑到并发插入的场景,结转程序要防并发。故借助redis分布式说实现。
 1 @Slf4j
 2 @Service
 3 public class TimerRequestManager extends ServiceImpl<TimerRequestMapper, TimerRequest> implements IService<TimerRequest> {
 4     @Autowired
 5     private RedisUtil redisUtil;
 6     @Autowired
 7     private DistributedLock distributedLock;
 8 
 9     private static final String COUNT_EMAX_TIMER_REQUEST = "count.emax_timer_request";
10 
11     @Override
12     public boolean save(TimerRequest entity) {
13         boolean save = super.save(entity);
14 
15         long incr = redisUtil.incr(COUNT_EMAX_TIMER_REQUEST, 1);
16         if (incr == 1) {
17             incr = baseMapper.selectCount(Wrappers.query());
18             redisUtil.set(COUNT_EMAX_TIMER_REQUEST, incr);
19         }
20         //  大于20w条自动结转数据
21         if (incr >= 200000) {
22             //重置初始的count值
23             redisUtil.set(COUNT_EMAX_TIMER_REQUEST, 5);
24             // 异步结转数据
25             boolean locked = distributedLock.lock("dataMig.emax_timer_request", 60 * 1000L);
26             if (locked) {
27                 ThreadPoolUtil.getThreadPoolExecutor().execute(() -> {
28                     try {
29                         int i = baseMapper.dataMigration(DateUtils.formatDate(new Date(), "yyyyMMddHHmm"));
30                         if (i > 0) {
31                             //重置count值
32                             Integer newCount = baseMapper.selectCount(Wrappers.query());
33                             redisUtil.set(COUNT_EMAX_TIMER_REQUEST, newCount);
34                             log.info("emax_timer_request数据结转完成");
35                         }
36                     } catch (Exception e) {
37                         log.error("emax_timer_request数据结转异常,", e);
38                     }
39                 });
40             }
41         }
42         return save;
43     }
44 }

 

 

TimerRequestMapper.java

TimerRequestMapper.java是一个interface。定义数据结转的操作方法。

1 public interface TimerRequestMapper extends BaseMapper<TimerRequest> {
2     int dataMigration(@Param("tableSuffix") String tableSuffix);
3 }

 

TimerRequestMapper.xml

如下xml文件里“dataMigration”这个update statement实现了数据结转的策略:根据评估业务场景,只保留最新的1w条记录,其他历史数据保存到新的结转表里。

需要注意的是,对于mybatisplus(mybatis)来说,如果要在statement里执行多条sql语句,需要在jdbc数据库连接串加上allowMultiQueries=true,如:

jdbc:mysql://192.168.40.84:3306/emax_base?characterEncoding=UTF-8&useUnicode=true&useSSL=false&serverTimezone=Asia/Shanghai&allowMultiQueries=true
<!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
<mapper namespace="com.emax.zhenghe.rpcapi.provider.modules.mq.mapper.TimerRequestMapper">

    <update id="dataMigration">
        <![CDATA[
        SELECT MIN(id) INTO @myId FROM( SELECT id FROM emax_timer_request ORDER BY id DESC LIMIT 10000) a;
        CREATE TABLE emax_timer_request${tableSuffix} LIKE emax_timer_request;
        INSERT INTO emax_timer_request${tableSuffix} SELECT * FROM emax_timer_request WHERE id<=@myId;
        DELETE FROM emax_timer_request WHERE id<=@myId;
        ]]>
    </update>
</mapper>

 

以上,并发多线程测试ok。

结转20w条数据平均用时=10s。当然,这个会因实际数据和服务器计算能力而有所不同。

 

 

posted on 2021-08-24 21:55  buguge  阅读(519)  评论(0编辑  收藏  举报