JVM调优总结

操作命令简介

JVM调优常用命令

jps

查看当前java进程信息

-l : 输出主类或jar的完全路径名
-v : 输出jvm参数
-m : 输出jvm启动时传递给main()的参数
备注:Linux的ps能达到类似效果
jinfo

通过jinfo命令获取当前java虚拟机的运行详情。该命令用得相对少一些。
示例1:每秒输出GC信息:jinfo -flags $pid

jstat

用于监视虚拟机运行时状态信息的命令,它可以显示出虚拟机进程中的类装载、内存、垃圾收集、JIT编译等运行数据。

示例1:每秒输出GC信息:jstat -gc $pid 1s

表头说明:
S0C:第一个幸存区的大小,单位KB
S1C:第二个幸存区的大小
S0U:第一个幸存区的使用大小
S1U:第二个幸存区的使用大小
EC:伊甸园区的大小
EU:伊甸园区的使用大小
OC:老年代大小
OU:老年代使用大小
MC:方法区大小(元空间)
MU:方法区使用大小
CCSC:压缩类空间大小
CCSU:压缩类空间使用大小
YGC:年轻代垃圾回收次数
YGCT:年轻代垃圾回收消耗时间,单位s
FGC:老年代垃圾回收次数
FGCT:老年代垃圾回收消耗时间,单位s
GCT:垃圾回收消耗总时间,单位s

示例2:每秒输出GC信息:jstat -gcutil $pid 1s

S0:幸存1区当前使用比例
S1:幸存2区当前使用比例
E:伊甸园区使用比例
O:老年代使用比例
M:元数据区使用比例
CCS:压缩使用比例
YGC:年轻代垃圾回收次数
FGC:老年代垃圾回收次数
FGCT:老年代垃圾回收消耗时间
GCT:垃圾回收消耗总时间

备注:通常来说,Java程序启动时也会声明打印GC日志:-XX:+PrintReferenceGC

jstack [option] PID

用于生成java虚拟机当前时刻的线程快照,为虚拟机内每一条线程正在执行的方法堆栈的集合,用于定位线程出现长时间停顿的原因,诸如死锁、死循环等。
示例:jstack -l 1712 >> jstack_1712.txt

jmap -histo $pid

获取当前程序的实例的数量;
示例1:查看前20条占用空间最多的类实例:jmap -histo $pid | head -20 > ./log.txt
示例2:查看当前存活的实例,执行过程中可能会触发一次full gc:jmap ‐histo:live $pid > ./log.txt
示例3:生成进程PID=1712的堆转储快照dump文件(生成文件大小等同于运存,需要结合VisualVM工具分析):
jmap -dump:live,format=b,file=dump.hprof 1712
备注1:实例信息表头描述:
num:序号; instances:实例数量; bytes:占用空间大小; class name:类名称,[C is a char[],[S is a short[],[I is a int[],[B is a byte[],[[I is a int[][]
备注2:实例信息打印示例:

Linux系统常用排查命令

free [-h]:显示系统的内存使用情况,包括总内存、已使用内存、空闲内存等信息,留意交换区内存信息
df [-h]:显示磁盘空间大小
du -sh ./* : 查看当前目录下子目录的大小,一般用于大文件排查(如大型日志文件)、磁盘空间排查场景
top:可以持续的监视进程的信息(按占用cpu算力排倒叙),一般需要关注排前面的进程。示例显示进程的线程信息:top -Hp PID
ps:用于查看系统中各个进程的内存使用情况,包括进程的内存占用量、共享内存、缓冲区等。示例:ps aux --sort -rss
iostat:查看系统的I/O统计信息。它可以显示磁盘、CPU和网络设备的使用情况
iotop:实时监控系统的I/O活动。它可以显示每个进程的I/O使用情况,以及每个设备的读写速度和I/O等待时间,常用于服务器io排查,可能需要安装(yum -y install iotop)

-o:只显示有io操作的进程
-b:批量显示,无交互,主要用作记录到文件。
-n NUM:显示NUM次,主要用于非交互式模式。
-d SEC:间隔SEC秒显示一次。
-p PID:监控的进程pid。
-u USER:监控的进程用户。

场景排查与优化步骤

场景1、cpu占满,很可能是程序中出现死循环:

1.通过top命令核查进程信息,此时一般会有突出的进程,重点关注第一条进程
2.通过top -Hp $PID命令查询进程内的线程信息,重点关注内存和cpu占用最高的线程tid,比如19664

3.转为十六进制得到 0x4cd0,此为线程id的十六进制表示
4.执行 jstack 19663|grep -A 10 4cd0,得到线程堆栈信息中 4cd0 这个线程所在行的后面10行,从堆栈中可以发现导致cpu飙高的调调用方法

5.也可以用方法通过jstack -l $PID >> XXX.txt 命令,生成线程信息文件,关注步骤2的线程号的信息,另外也留意关键字deadlock、长时间的watting 或blocked

场景2、cpu很较高,java进程频繁假死、响应超时(或者吞吐量下降、执行耗时不满足毫秒级预期):

1.通过top命令核查进程信息,此时一般会有突出的进程,重点关注第一条进程
2.通过top -Hp PID命令查询进程内的线程信息,此时没有突出的线程
3.若该进程分配的内存不高,或者代码中频繁创建大对象,会导致频繁GC,通过jstat -gcutil $pid 1s 查看该进程的GC情况,因为GC的stop the world会影响吞吐量:
a.关注YGC的频率、执行耗时、执行前后的内存变化
b.关注FGC的频率、执行耗时、执行前后的内存变化:若GC前后内存变化不大,说明有常驻的大对象(内存泄漏或糟糕的代码)!
4.查看进程的大对象:jmap -histo $pid | head -20
5.确认大对象问题,调整代码(如弄成单例),或者调整JVM参数(如预期停顿时间、堆栈大小等等)
备注1.常见场景:GC导致的cpu明显占用,一般见于性能较差的服务器
备注2.GC执行器选型:
a.CMS:属老年代收集器,能指定停顿时长,但走标记清除算法会产生碎片,最后难免会执行兜底的serialOld(STW),当然也可以使用-XX:UseCMSCompactAtFullCollection等参数使在FGC的时候做整理压缩(需要STW)
b.G1:能指定停顿时长,比较柔性、智能,结合小region和标记复制算法,不会产生碎片,常见8G以上的进程使用,日常2G也可考虑使用
c.ZGC:jdk15及之后稳定成熟(2018年宣告Single generation,即单代,2022官方移除了该声明),可实现低于1ms的停顿时长(类似于空间换时间,会占用更多的CPU\内存资源),支持8MB以上的堆,尤其能胜任TB级,建议投产前做充分压测

场景3、服务器io告警:

主要通过iotop命令确定问题进程,对于Java进程来说,常见于打日志太频繁、本地文件读写太频繁,建议检查相关逻辑实现

其他调优案例收录

以下是整理自网络的一些JVM调优实例:

【网站流量浏览量暴增后,网站反应页面响很慢】

1、问题推测:在测试环境测速度比较快,但是一到生产就变慢,所以推测可能是因为垃圾收集导致的业务线程停顿。
2、定位:为了确认推测的正确性,在线上通过jstat -gc 指令 看到JVM进行GC 次数频率非常高,GC所占用的时间非常长,所以基本推断就是因为GC频率非常高,所以导致业务线程经常停顿,从而造成网页反应很慢。
3、解决方案:因为网页访问量很高,所以对象创建速度非常快,导致堆内存容易填满从而频繁GC,所以这里问题在于新生代内存太小,所以这里可以增加JVM内存就行了,所以初步从原来的2G内存增加到16G内存。
4、第二个问题:增加内存后的确平常的请求比较快了,但是又出现了另外一个问题,就是不定期的会间断性的卡顿,而且单次卡顿的时间要比之前要长很多。
5、问题推测:练习到是之前的优化加大了内存,所以推测可能是因为内存加大了,从而导致单次GC的时间变长从而导致间接性的卡顿。
6、定位:还是通过jstat -gc 指令 查看到 的确FGC次数并不是很高,但是花费在FGC上的时间是非常高的,根据GC日志 查看到单次FGC的时间有达到几十秒的。
7、解决方案: 因为JVM默认使用的是PS+PO的组合,PS+PO垃圾标记和收集阶段都是STW,所以内存加大了之后,需要进行垃圾回收的时间就变长了,所以这里要想避免单次GC时间过长,所以需要更换并发类的收集器,因为当前的JDK版本为1.7,所以最后选择CMS垃圾收集器,根据之前垃圾收集情况设置了一个预期的停顿的时间,上线后网站再也没有了卡顿问题。

【后台导出数据引发的OOM】

问题描述:公司的后台系统,偶发性的引发OOM异常,堆内存溢出。
1、因为是偶发性的,所以第一次简单的认为就是堆内存不足导致,所以单方面的加大了堆内存从4G调整到8G。
2、但是问题依然没有解决,只能从堆内存信息下手,通过开启了-XX:+HeapDumpOnOutOfMemoryError参数 获得堆内存的dump文件。
3、VisualVM 对 堆dump文件进行分析,通过VisualVM查看到占用内存最大的对象是String对象,本来想跟踪着String对象找到其引用的地方,但dump文件太大,跟踪进去的时候总是卡死,而String对象占用比较多也比较正常,最开始也没有认定就是这里的问题,于是就从线程信息里面找突破点。
4、通过线程进行分析,先找到了几个正在运行的业务线程,然后逐一跟进业务线程看了下代码,发现有个引起我注意的方法,导出订单信息。
5、因为订单信息导出这个方法可能会有几万的数据量,首先要从数据库里面查询出来订单信息,然后把订单信息生成excel,这个过程会产生大量的String对象。
6、为了验证自己的猜想,于是准备登录后台去测试下,结果在测试的过程中发现到处订单的按钮前端居然没有做点击后按钮置灰交互事件,结果按钮可以一直点,因为导出订单数据本来就非常慢,使用的人员可能发现点击后很久后页面都没反应,结果就一直点,结果就大量的请求进入到后台,堆内存产生了大量的订单对象和EXCEL对象,而且方法执行非常慢,导致这一段时间内这些对象都无法被回收,所以最终导致内存溢出。
7、知道了问题就容易解决了,最终没有调整任何JVM参数,只是在前端的导出订单按钮上加上了置灰状态,等后端响应之后按钮才可以进行点击,然后减少了查询订单信息的非必要字段来减少生成对象的体积,然后问题就解决了。

其他JVM调优经验收录

  • 关闭 SWAP 分区
    swap 是很多性能场景的万恶之源,建议禁用。进程倒是死不了,但 GC 时间长的却让人无法忍受。特别是ES服务更要关闭SWAP

  • 老年代占用不高却经常发生FullGC 有可能是MetaSpace空间不足导致的

  • 常见内存溢出原因(未完待续)
    使用了 HashMap 做缓存,但是并没有设置超时时间或者 LRU 策略,造成了放入 Map 对象的数据越来越多,而产生了内存泄漏
    没有重写 Key 类的 hashCode 和 equals 方法,造成了放入 HashMap 的所有对象都无法被取出来,它们和外界失联了。尽量避免使用自定义的对象作为 Key
    多线程场景下,Threadlocal没有做remove、线程池没有关闭

【单个缓存数据过大导致的系统CPU飚高】

1、系统发布后发现CPU一直飚高到600%,发现这个问题后首先要做的是定位到是哪个应用占用CPU高,通过top 找到了对应的一个java应用占用CPU资源600%。
2、如果是应用的CPU飚高,那么基本上可以定位可能是锁资源竞争,或者是频繁GC造成的。
3、所以准备首先从GC的情况排查,如果GC正常的话再从线程的角度排查,首先使用jstat -gc PID 指令打印出GC的信息,结果得到得到的GC 统计信息有明显的异常,应用在运行了才几分钟的情况下GC的时间就占用了482秒,那么问这很明显就是频繁GC导致的CPU飚高。
4、定位到了是GC的问题,那么下一步就是找到频繁GC的原因了,所以可以从两方面定位了,可能是哪个地方频繁创建对象,或者就是有内存泄露导致内存回收不掉。
5、根据这个思路决定把堆内存信息dump下来看一下,使用jmap -dump 指令把堆内存信息dump下来(堆内存空间大的慎用这个指令否则容易导致会影响应用,因为我们的堆内存空间才2G所以也就没考虑这个问题了)。
6、把堆内存信息dump下来后,就使用visualVM进行离线分析了,首先从占用内存最多的对象中查找,结果排名第三看到一个业务VO占用堆内存约10%的空间,很明显这个对象是有问题的。
7、通过业务对象找到了对应的业务代码,通过代码的分析找到了一个可疑之处,这个业务对象是查看新闻资讯信息生成的对象,由于想提升查询的效率,所以把新闻资讯保存到了redis缓存里面,每次调用资讯接口都是从缓存里面获取。
8、把新闻保存到redis缓存里面这个方式是没有问题的,有问题的是新闻的50000多条数据都是保存在一个key里面,这样就导致每次调用查询新闻接口都会从redis里面把50000多条数据都拿出来,再做筛选分页拿出10条返回给前端。50000多条数据也就意味着会产生50000多个对象,每个对象280个字节左右,50000个对象就有13.3M,这就意味着只要查看一次新闻信息就会产生至少13.3M的对象,那么并发请求量只要到10,那么每秒钟都会产生133M的对象,而这种大对象会被直接分配到老年代,这样的话一个2G大小的老年代内存,只需要几秒就会塞满,从而触发GC。
9、知道了问题所在后那么就容易解决了,问题是因为单个缓存过大造成的,那么只需要把缓存减小就行了,这里只需要把缓存以页的粒度进行缓存就行了,每个key缓存10条作为返回给前端1页的数据,这样的话每次查询新闻信息只会从缓存拿出10条数据,就避免了此问题的产生。

【CPU经常100% 问题定位】

问题分析:CPU高一定是某个程序长期占用了CPU资源。
1、所以先需要找出那个进行占用CPU高。top 列出系统各个进程的资源占用情况。
2、然后根据找到对应进行里哪个线程占用CPU高。top -Hp 进程ID 列出对应进程里面的线程占用资源情况
3、找到对应线程ID后,再打印出对应线程的堆栈信息
printf "%x\n" PID 把线程ID转换为16进制。
jstack PID 打印出进程的所有线程信息,从打印出来的线程信息中找到上一步转换为16进制的线程ID对应的线程信息。
复制
4、最后根据线程的堆栈信息定位到具体业务方法,从代码逻辑中找到问题所在。
查看是否有线程长时间的watting 或blocked
如果线程长期处于watting状态下, 关注watting on xxxxxx,说明线程在等待这把锁,然后根据锁的地址找到持有锁的线程。

【内存飚高问题定位】

分析: 内存飚高如果是发生在java进程上,一般是因为创建了大量对象所导致,持续飚高说明垃圾回收跟不上对象创建的速度,或者内存泄露导致对象无法回收。
1、先观察垃圾回收的情况
jstat -gc PID 1000 查看GC次数,时间等信息,每隔一秒打印一次。
jmap -histo PID | head -20 查看堆内存占用空间最大的前20个对象类型,可初步查看是哪个对象占用了内存。
如果每次GC次数频繁,而且每次回收的内存空间也正常,那说明是因为对象创建速度快导致内存一直占用很高;如果每次回收的内存非常少,那么很可能是因为内存泄露导致内存一直无法被回收。
2、导出堆内存文件快照
jmap -dump:live,format=b,file=/home/myheapdump.hprof PID dump堆内存信息到文件。
3、使用visualVM对dump文件进行离线分析,找到占用内存高的对象,再找到创建该对象的业务代码位置,从代码和业务场景中定位具体问题。

【数据分析平台系统频繁 Full GC】

平台主要对用户在 App 中行为进行定时分析统计,并支持报表导出,使用 CMS GC 算法。
数据分析师在使用中发现系统页面打开经常卡顿,通过 jstat 命令发现系统每次 Young GC 后大约有 10% 的存活对象进入老年代。
原来是因为 Survivor 区空间设置过小,每次 Young GC 后存活对象在 Survivor 区域放不下,提前进入老年代。
通过调大 Survivor 区,使得 Survivor 区可以容纳 Young GC 后存活对象,对象在 Survivor 区经历多次 Young GC 达到年龄阈值才进入老年代。
调整之后每次 Young GC 后进入老年代的存活对象稳定运行时仅几百 Kb,Full GC 频率大大降低。

【业务对接网关 OOM】

网关主要消费 Kafka 数据,进行数据处理计算然后转发到另外的 Kafka 队列,系统运行几个小时候出现 OOM,重启系统几个小时之后又 OOM。
通过 jmap 导出堆内存,在 eclipse MAT 工具分析才找出原因:代码中将某个业务 Kafka 的 topic 数据进行日志异步打印,该业务数据量较大,大量对象堆积在内存中等待被打印,导致 OOM。

【鉴权系统频繁长时间 Full GC】

系统对外提供各种账号鉴权服务,使用时发现系统经常服务不可用,通过 Zabbix 的监控平台监控发现系统频繁发生长时间 Full GC,且触发时老年代的堆内存通常并没有占满,发现原来是业务代码中调用了 System.gc()。

posted @ 2023-09-18 20:09  鱼007  阅读(175)  评论(0编辑  收藏  举报