java.lang.OutOfMemoryError: GC overhead limit exceeded

1 背景

公司的一个项目,平时运行一直没问题,但是最近,时不时的会报出 java.lang.OutOfMemoryError: GC overhead limit exceeded 错误,然后,java进程就处于假死状态,几天都不会有后台日志更新。

2 问题原因

可以明确的一点是,jvm出现了问题。所以,查看jvm内存使用情况

 

可以看出,FGC进行了89次,而YGC是23次。这就有点奇怪了,为什么fullGC这么频繁,而且还超过了yangGC次数。所以可以肯定的是和FullGC过于频繁有关。

默认情况下,如果在某一个时间段内,FullGC花费的时间超过 98%,并且GC 回收的内存少于 2%,JVM 就会抛出这个错误。而且抛出这个错误后,jvm将不再进行GC动作,jvm将处于假死状态。

那什么导致的FullGC频繁呢?我们注意到,OldCapacity=2.7G。而当JVM刚启动的时候,默认分配的堆内存为物理内存的1/64,本机内存15G,也就是说会分配230M内存给jvm堆,而老年代默认占8/10堆内存,也就是不到200M,但是现在这个内存是2.7G,很明显是因为某一个业务把大量数据放到内存中,导致老年代堆内存一直在增大导致的,在这个过程中,老年代内存一直无法容纳这么大的数据量,一直进行FullGC,最终在短时间内FullGC过于频繁,最终触发了GC overhead limit exceeded。

为了验证我们的猜想,我们查看业务日志,发现在出现GC overhead limit exceeded之前,某一个用户在查询venn图。

2022.09.07 17:35:23.920 INFO  [http-nio-8081-exec-6] com.xxx.xxx.microbereport.controller.module.VennController 38 venn - RequestBody:{"planCode":"xxx","customerEmail":"xxx","currentCompareGroup":""}
2022.09.07 17:39:04.329 WARN  [HikariPool-1 housekeeper] com.zaxxer.hikari.pool.HikariPool$HouseKeeper 766 run - HikariPool-1 - Thread starvation or clock leap detected (housekeeper delta=1m3s213ms343µs686ns).
2022.09.07 17:41:21.004 ERROR [org.springframework.kafka.KafkaListenerEndpointContainer#0-1-C-1] org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer 718 run - Stopping container due to an Error java.lang.OutOfMemoryError: GC overhead limit exceeded
2022.09.07 17:41:20.999 WARN  [cluster-ClusterId{value='63186157d456c1530516ee32', description='null'}-16s3:27017] com.mongodb.diagnostics.logging.SLF4JLogger 91 warn - Exception in monitor thread during notification of server description state change java.lang.OutOfMemoryError: GC overhead limit exceeded
2022.09.07 17:40:37.030 ERROR [ThreadPoolTaskScheduler-1] org.springframework.scheduling.support.TaskUtils$LoggingErrorHandler 96 handleError - Unexpected error occurred in scheduled task. java.lang.OutOfMemoryError: GC overhead limit exceeded

而这个查询会查询整个otu表格,可能这个otu表格特别大(比如2.7G,具体大小待验证)

为了复现这个问题,使用这个账号登陆,然后做同样的查询,可以很清楚的看到,刚开始的时候,FGC=3,OC=240M

 

经过这个比较耗时耗内存的查询后,结果为FGC=89,OC=2700M

 

至此,问题根因找到了,就是这个查询导致的。

总结:这个问题出现的原因是在某一个时间段内,某处代码把大量数据放到内存中,导致jvm堆内存不足,发生FullGC动作以便进行垃圾回收和增大jvm内存。但是在该段极短的时间内,FullGC次数达到阈值,触发了GC overhead limit exceeded。

找到根因,解决方法也就有了,由于还未着手修改代码,所以这篇文章到此为止,后面根据情况进行补充后续内容。

后记:

后来,对代码进行了修改。对这种类型的查询进行预处理,因为查询所有数据到内存装不下,想了个办法,每次查询5000条数据,然后对冗余项进行瘦身,然后再存储到一个新的集合中。页面查询时使用经过瘦身的数据。

3 后续的观察

隔了一段时间,再次观察java进程内存使用情况,发现,FGC次数还是很高,但是没有发生过上述提到的 java.lang.OutOfMemoryError: GC overhead limit exceeded ,

 

 FGC发生了604次,怀疑是否还是存在内存泄漏

于是,使用jmap命令导出堆内存

jmap -J-d64 -dump:live,format=b,file=heap_dump.16s1 13355

 

 使用MemoryAnalyzer分析工具进行分析

 

 但是,让我奇怪的是这里的内存显式是72M。导出之前使用jstat查看明明是至少1.2G

后来发现,我们运行了jmap后,FGC次数增加了一次,这就明白了,当我们执行jmap时,执行了一次FGC

 

 可以看到,老年代使用内存从1.2G变为了77M,也就是我们在上图我们看到的72M(不完全一致,因为堆内存一直在变化)

经过我们的分析,没有内存泄漏。FGC次数多的原因是jvm启动前期分配的内存比较小,而我们系统查询又涉及到大对象的查询,前期FGC次数增长比较快。

经过页面上几次点击查询之后,我们再观察一下堆内存变化,可以看到,堆内存又上来了

 

后续的再次处理

 

上次修改代码时,我么的做法是,在用户页面首次点击查询时,首先对数据进行瘦身。后续查询经过瘦身的数据。但是有一个问题,就是,如果数据量特别大,查询可能要花费几十秒甚至几分钟。如果用户多次点击,将会多次触发数据预处理过程。导致经过瘦身的数据集会有异常。因此,这里必须只对数据进行1次瘦身处理。

想到的方法是进行多线程同步。但是,我么的系统部署在3节点的集群上,用户点击查询会负载均衡到任何一个节点,因此,为了保证业务过程正确,要使用分布式锁解决这个问题,这里我们使用的是Redisson,代码如下:

    public List queryByOtuTable(String otuTable) {
        Query query = new Query();
        Criteria criteria = new Criteria();
        criteria.and("otu_table").is(otuTable);
        criteria.and("status").is(1);
        query.addCriteria(criteria);
        query.fields().exclude("_id");
        List<Map> vennResults = mongoTemplate.find(query, Map.class, MongoConstants.XXX_OTU_TABLE_FOR_VENN);
        if(null == vennResults)
        {
            LOGGER.error("查询失败,vennResults==null");
            return null;
        }
        //因为xxx_otu_table过于庞大和冗余,如果表格过于庞大,会把java服务搞崩,这里进行二次处理,处理后的结果放到xxx_otu_table_for_venn中
        if(vennResults.size() == 0)
        {
            LOGGER.info("查询xxx_otu_table_for_venn为空,首先作数据处理,处理完之后再进行查询");
            executor.submit(() -> {
                handleOtu(otuTable);
            });
        }
        return vennResults;
    }

对otu表格进行预处理的代码

//需要加分布式事务,不然,多个线程进来的话,会有问题
    private void handleOtu(String otuTable) {
        RLock lock = redisson.getLock(otuTable);
        try
        {
            lock.lock(30, TimeUnit.MINUTES);//超时时间为30分钟
            //因为页面点击多次的话,虽然加了同步机制,但是这个方法终究会执行多次,所以刚开始要先查询一下xxx_otu_table_for_venn,如果状态是1,则表示已经有线程进行了处理,直接返回
            if(exist(otuTable))
            {
                LOGGER.info("数据已经被其他线程处理过,这里不做处理,直接返回:{}", otuTable);
                return;
            }
            //1 首先查询文档数
            long total = count(otuTable);
            LOGGER.info("otu表格大小:{}", total);
            long curr = 0;

            Query query = new Query();
            Criteria criteria = new Criteria();
            criteria.and("otu_table").is(otuTable);
            query.addCriteria(criteria);
            query.fields().exclude("_id");
            query.fields().exclude("report_name");
            query.fields().exclude("sample_num");
            query.fields().exclude("otu_sequence");
            query.fields().exclude("update");

            //每次查询5000条数据
            while(true)
            {
                LOGGER.info("每次查询5000条,已处理:{}",curr);
                List<Map> resultList = mongoTemplate.find(
                        query.skip(curr).limit(5000).with(
                                new Sort(Sort.Direction.ASC, "_id")),
                        Map.class, MongoConstants.XXX_OTU_TABLE);
                if(resultList.size() == 0)
                {
                    LOGGER.info("查询列表为空");
                    break;
                }

                //数据过滤
//            略...
                //将数据写入新集合
                mongoTemplate.insert(resultList, MongoConstants.XXX_OTU_TABLE_FOR_VENN);


                if(resultList.size() < 5000)
                {
                    LOGGER.info("查询列表小于5000,最后一次循环");
                    break;
                }
                curr = curr + 5000;
            }
            Query query_update = new Query(Criteria.where("otu_table").is(otuTable));
            Update update = new Update();
            update.set("status", 1);
//处理完,把状态置为1,表示这个数据集可用
            mongoTemplate.updateMulti(query_update, update, MongoConstants.XXX_OTU_TABLE_FOR_VENN);
        }
        finally {
            lock.unlock();
        }

    }

我们使用postman Runner进行接口调用,模拟压力测试场景,同时触发5次调用

后代打印的日志

2022.09.23 10:35:39.730 INFO  [http-nio-8081-exec-8] xxx.controller.module.VennController 38 venn - RequestBody:{"planCode":"uv5Mqn7","customerEmail":"xxx","currentCompareGroup":""}
2022.09.23 10:35:39.741 INFO  [http-nio-8081-exec-8] xxx.service.module.impl.VennServiceImpl 75 queryByOtuTable - 查询xxx_otu_table_for_venn为空,首先作数据处理,处理完之后再进行查询
2022.09.23 10:35:39.741 ERROR [http-nio-8081-exec-8] xxx.controller.module.VennController 109 venn - 根据分析号uv5Mqn7查询otu数据,列表长度为空
...
以上信息总共在不同的线程中打印5次,因为postman中调用了5次
...
2022.09.23 10:35:42.493 INFO  [defaultThreadPool_5] xxx.service.module.impl.VennServiceImpl 100 handleOtu - otu表格大小:25868
2022.09.23 10:35:42.494 INFO  [defaultThreadPool_5] xxx.service.module.impl.VennServiceImpl 116 handleOtu - 每次查询5000条,已处理:0
2022.09.23 10:35:49.301 INFO  [defaultThreadPool_5] xxx.service.module.impl.VennServiceImpl 116 handleOtu - 每次查询5000条,已处理:5000
2022.09.23 10:35:57.146 INFO  [defaultThreadPool_5] xxx.service.module.impl.VennServiceImpl 116 handleOtu - 每次查询5000条,已处理:10000
2022.09.23 10:36:01.840 INFO  [defaultThreadPool_5] xxx.service.module.impl.VennServiceImpl 116 handleOtu - 每次查询5000条,已处理:15000
2022.09.23 10:36:06.246 INFO  [defaultThreadPool_5] xxx.service.module.impl.VennServiceImpl 116 handleOtu - 每次查询5000条,已处理:20000
2022.09.23 10:36:10.756 INFO  [defaultThreadPool_5] xxx.service.module.impl.VennServiceImpl 116 handleOtu - 每次查询5000条,已处理:25000
2022.09.23 10:36:11.359 INFO  [defaultThreadPool_5] xxx.service.module.impl.VennServiceImpl 149 handleOtu - 查询列表小于5000,最后一次循环
2022.09.23 10:36:11.932 INFO  [defaultThreadPool_7] xxx.service.module.impl.VennServiceImpl 95 handleOtu - 数据已经被其他线程处理过,这里不做处理,直接返回:uv5Mqn7
2022.09.23 10:36:11.935 INFO  [defaultThreadPool_6] xxx.service.module.impl.VennServiceImpl 95 handleOtu - 数据已经被其他线程处理过,这里不做处理,直接返回:uv5Mqn7
2022.09.23 10:36:11.939 INFO  [defaultThreadPool_8] xxx.service.module.impl.VennServiceImpl 95 handleOtu - 数据已经被其他线程处理过,这里不做处理,直接返回:uv5Mqn7
2022.09.23 10:36:11.953 INFO  [defaultThreadPool_9] xxx.service.module.impl.VennServiceImpl 95 handleOtu - 数据已经被其他线程处理过,这里不做处理,直接返回:uv5Mqn7

我们可以看到,这个查询耗时20秒,并且只有一个线程做了数据处理,后面4个线程没有对数据做处理,达到了分布式环境下多线程下线程安全的目的。

3 linux下如何使用Memory Analyzer

有专门的linux版本(下载时注意支持的jdk版本)

wget https://www.eclipse.org/downloads/download.php?file=/mat/1.5/rcp/MemoryAnalyzer-1.5.0.20150527-linux.gtk.x86_64.zip

解压

upzip MemoryAnalyzer-1.5.0.20150527-linux.gtk.x86_64.zip

修改配置

解压后生成mat目录,修改./mat/ParseHeapDump.sh,添加参数-vmargs -Xmx8g -XX:-UseGCOverheadLimit

./MemoryAnalyzer -consolelog -application org.eclipse.mat.api.parse "$@" -vmargs -Xmx8g -XX:-UseGCOverheadLimit

开始生成分析报告

root 16:07:33 /nas1/szj_temp/mat
$ ./ParseHeapDump.sh ../heap_dump20240312.16s1 org.eclipse.mat.api:suspects

会生成heap_dump20240312_Leak_Suspects.zip文件,把文件拷贝到windows上进行查看

 

posted @ 2022-09-07 21:48  zhenjingcool  阅读(993)  评论(0编辑  收藏  举报