centos性能优化cpu相关的测试及方法

工具下载地址
https://src.fedoraproject.org/repo/pkgs/stress/stress-1.0.4.tar.gz/a607afa695a511765b40993a64c6e2f4/stress-1.0.4.tar.gz
https://ftp.osuosl.org/pub/blfs/conglomeration/sysstat/sysstat-12.1.5.tar.xz

解压并安装 sysstat和stress工具
tar -zxvf sysstat-12.1.5.tar.gz
tar xf stress-1.0.4.tar.gz
进入解压目录后执行命令
./configure
make && make install

场景一 : 模拟CPU 密集型进程

因为有4核,模拟4个CPU

第一个终端
在第一个终端运行 stress 命令,模拟一个 CPU 使用率 100% 的场景
# stress --cpu 1 --timeout 600

第二个终端
运行 uptime 查看系统平均负载情况,-d 参数表示高亮显示变化的区域
# -d 参数表示高亮显示变化的区域

# watch -d uptime

..., load average: 1.09, 0.58, 16 1 分钟的平均负载会慢慢增加到 1.0

第三个终端
运行 mpstat 查看 CPU 使用率的变化情况
#-P ALL 表示监控所有 CPU,后面数字 5 表示间隔 5 秒后输出一组数据
# mpstat -P ALL 5

仅有一个 CPU 的使用率接近 100%,但它的 iowait 只有 0
这说明,平均负载的升高正是由于 CPU 使用率为 100%

# mpstat -P ALL 5
Linux 3.10.0-1160.31.1.el7.x86_64 (node02)     09/24/2021     _x86_64_    (4 CPU)

10:27:15 AM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
10:27:20 AM  all   26.00    0.00    0.96    0.00    0.00    0.15    0.00    0.00    0.00   72.89
10:27:20 AM    0    1.41    0.00    1.01    0.00    0.00    0.20    0.00    0.00    0.00   97.37
10:27:20 AM    1  100.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00
10:27:20 AM    2    0.81    0.00    1.42    0.00    0.00    0.20    0.00    0.00    0.00   97.56
10:27:20 AM    3    0.61    0.00    1.43    0.00    0.00    0.20    0.00    0.00    0.00   97.76

10:27:20 AM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
10:27:25 AM  all   25.93    0.00    1.32    0.05    0.00    0.36    0.00    0.00    0.00   72.35
10:27:25 AM    0    0.81    0.00    1.42    0.20    0.00    0.40    0.00    0.00    0.00   97.17
10:27:25 AM    1  100.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00
10:27:25 AM    2    0.62    0.00    1.44    0.00    0.00    0.41    0.00    0.00    0.00   97.54
10:27:25 AM    3    0.82    0.00    2.45    0.00    0.00    0.61    0.00    0.00    0.00   96.12

接下来,就要排查是哪个进程导致 CPU 的使用率这么高的
我们可以使用 pidstat 来查询

# pidstat -u 5 1
Linux 3.10.0-1160.31.1.el7.x86_64 (node02)     09/24/2021     _x86_64_    (4 CPU)

10:34:59 AM   UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
10:35:04 AM     0        11    0.00    0.20    0.00    0.00    0.20     0  watchdog/0
10:35:04 AM     0        19    0.00    0.20    0.00    0.00    0.20     2  ksoftirqd/2
10:35:04 AM     0       664    0.00    0.20    0.00    0.00    0.20     3  xfsaild/dm-2
10:35:04 AM   998      2356    0.20    0.00    0.00    0.00    0.20     2  gitaly
10:35:04 AM   998      2359    0.20    0.39    0.00    0.00    0.59     3  bundle
10:35:04 AM   992      2370    0.20    0.20    0.00    0.00    0.39     2  prometheus
10:35:04 AM   997      2375    0.00    0.20    0.00    0.00    0.20     3  redis-server
10:35:04 AM   998     29664    0.20    0.00    0.00    0.00    0.20     2  bundle
10:35:04 AM   998     29804    0.00    0.20    0.00    0.00    0.20     2  ruby
10:35:04 AM     0     29948    0.20    0.20    0.00    0.00    0.39     0  kube-scheduler
10:35:04 AM     0     30020    0.39    2.37    0.00    0.00    2.76     1  kube-apiserver
10:35:04 AM   996     30380    0.00    0.20    0.00    0.00    0.20     0  postgres
10:35:04 AM     0     33743    0.20    0.79    0.00    0.00    0.99     0  kube-controller
10:35:04 AM     0     43945   99.61    0.00    0.00    0.00   99.61     1  stress
10:35:04 AM     0     43969    0.00    0.20    0.00    0.00    0.20     0  watch
10:35:04 AM     0     47581    0.00    0.79    0.00    0.00    0.79     0  pidstat
10:35:04 AM     0     54322    0.79    0.99    0.00    0.00    1.78     1  kubelet
10:35:04 AM     0    110663    0.20    0.39    0.00    0.00    0.59     0  dockerd
10:35:04 AM     0    110672    0.00    0.20    0.00    0.00    0.20     0  docker-containe
10:35:04 AM     0    130631    0.20    0.00    0.00    0.00    0.20     3  coredns
10:35:04 AM     0    130669    0.20    1.18    0.00    0.00    1.38     0  etcd

Average:      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
Average:        0        11    0.00    0.20    0.00    0.00    0.20     -  watchdog/0
Average:        0        19    0.00    0.20    0.00    0.00    0.20     -  ksoftirqd/2
Average:        0       664    0.00    0.20    0.00    0.00    0.20     -  xfsaild/dm-2
Average:      998      2356    0.20    0.00    0.00    0.00    0.20     -  gitaly
Average:      998      2359    0.20    0.39    0.00    0.00    0.59     -  bundle
Average:      992      2370    0.20    0.20    0.00    0.00    0.39     -  prometheus
Average:      997      2375    0.00    0.20    0.00    0.00    0.20     -  redis-server
Average:      998     29664    0.20    0.00    0.00    0.00    0.20     -  bundle
Average:      998     29804    0.00    0.20    0.00    0.00    0.20     -  ruby
Average:        0     29948    0.20    0.20    0.00    0.00    0.39     -  kube-scheduler
Average:        0     30020    0.39    2.37    0.00    0.00    2.76     -  kube-apiserver
Average:      996     30380    0.00    0.20    0.00    0.00    0.20     -  postgres
Average:        0     33743    0.20    0.79    0.00    0.00    0.99     -  kube-controller
Average:        0     43945   99.61    0.00    0.00    0.00   99.61     -  stress
Average:        0     43969    0.00    0.20    0.00    0.00    0.20     -  watch
Average:        0     47581    0.00    0.79    0.00    0.00    0.79     -  pidstat
Average:        0     54322    0.79    0.99    0.00    0.00    1.78     -  kubelet
Average:        0    110663    0.20    0.39    0.00    0.00    0.59     -  dockerd
Average:        0    110672    0.00    0.20    0.00    0.00    0.20     -  docker-containe
Average:        0    130631    0.20    0.00    0.00    0.00    0.20     -  coredns
Average:        0    130669    0.20    1.18    0.00    0.00    1.38     -  etcd

从这里可以明显看到,stress 进程的 CPU 使用率为 99.61


场景二:模拟IO密集型的进程
第一个终端
设置逻辑cpu个数为2

运行 stress 命令,但这次模拟 I/O 压力,即不停地执行 sync()

# stress -i 1 --timeout 600

第二个终端
运行 uptime 查看系统平均负载情况,-d 参数表示高亮显示变化的区域
# -d 参数表示高亮显示变化的区域

# watch -d uptime

第三个终端
运行 mpstat 查看 CPU 使用率的变化情况

# -P ALL 表示监控所有CPU,后面数字5表示间隔5秒后输出一组数据
# mpstat -P ALL 5 1

%iowait的值过高,表示硬盘存在I/O瓶颈,%idle值高,表示CPU较空闲
原因:iowait 无法升高是因为案例中 stress -i 使用的是 sync() 系统调用,它的作用是刷新缓冲区内存到磁盘中
对于虚拟机,缓冲区可能比较小,无法产生大的io压力
这样大部分都是系统调用的消耗了
所以,只看到系统 CPU 使用率升高


解决方案:
使用 stress 的另一个参数 -d # --hdd N 产生 N 个进程每个进程执行 write() 和 unlink() 的进程 # --hdd-bytes B 每个 hdd worker 写入 B 字节(默认为1GB)

# stress --hdd 1 -t 600 --hdd-bytes 4G

再通过mapstat查看指标

[root@node02 ~]# mpstat -P ALL 5 1
Linux 3.10.0-1160.31.1.el7.x86_64 (node02)     09/24/2021     _x86_64_    (4 CPU)

04:41:56 PM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
04:42:01 PM  all    3.67    0.00   19.82   67.16    0.00    8.44    0.00    0.00    0.00    0.92
04:42:01 PM    0    6.25    0.00   36.25   42.50    0.00   15.00    0.00    0.00    0.00    0.00
04:42:01 PM    1    1.26    0.00   10.46   82.85    0.00    5.44    0.00    0.00    0.00    0.00
04:42:01 PM    2    6.08    0.00   18.78   70.72    0.00    1.66    0.00    0.00    0.00    2.76
04:42:01 PM    3    2.22    0.00   44.44   13.33    0.00   40.00    0.00    0.00    0.00    0.00

Average:     CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
Average:     all    3.67    0.00   19.82   67.16    0.00    8.44    0.00    0.00    0.00    0.92
Average:       0    6.25    0.00   36.25   42.50    0.00   15.00    0.00    0.00    0.00    0.00
Average:       1    1.26    0.00   10.46   82.85    0.00    5.44    0.00    0.00    0.00    0.00
Average:       2    6.08    0.00   18.78   70.72    0.00    1.66    0.00    0.00    0.00    2.76
Average:       3    2.22    0.00   44.44   13.33    0.00   40.00    0.00    0.00    0.00    0.00

那么到底是哪个进程,导致 iowait 这么高呢?我们还是用 pidstat 来查询:

[root@node02 ~]# pidstat -u 5 1
Linux 3.10.0-1160.31.1.el7.x86_64 (node02)     09/24/2021     _x86_64_    (4 CPU)

04:47:15 PM   UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
04:47:20 PM     0         1    0.19    0.00    0.00    0.19    0.19     1  systemd
04:47:20 PM     0         6    0.00    6.95    0.00   22.01    6.95     0  ksoftirqd/0
04:47:20 PM     0         7    0.00    3.67    0.00    0.00    3.67     0  migration/0
04:47:20 PM     0         9    0.00    7.34    0.00   12.16    7.34     0  rcu_sched
04:47:20 PM     0        13    0.00    0.19    0.00    0.00    0.19     1  migration/1
04:47:20 PM     0        14    0.00    4.05    0.00   16.22    4.05     1  ksoftirqd/1
04:47:20 PM     0        19    0.00    6.18    0.00   12.55    6.18     2  ksoftirqd/2
04:47:20 PM     0        22    0.00    0.58    0.00    0.00    0.58     3  watchdog/3
04:47:20 PM     0        24    0.00   31.27    0.00   15.25   31.27     3  ksoftirqd/3
04:47:20 PM     0        46    0.00    4.63    0.00    7.53    4.63     0  kswapd0
04:47:20 PM     0       429    0.00    0.97    0.00    3.67    0.97     2  xfsaild/dm-0
04:47:20 PM     0       430    0.00    1.74    0.00    0.97    1.74     3  kworker/3:1H
04:47:20 PM     0       664    0.00    2.12    0.00    4.83    2.12     2  xfsaild/dm-2
04:47:20 PM     0       776    0.00    0.58    0.00    0.00    0.58     0  kworker/0:1H
04:47:20 PM   998      2356    1.16    6.37    0.00    0.00    7.53     0  gitaly
04:47:20 PM   998      2359    1.93    4.25    0.00    0.00    6.18     3  bundle
04:47:20 PM   992      2370    0.97    0.58    0.00    0.39    1.54     2  prometheus
04:47:20 PM   997      2375    0.39    1.16    0.00    4.63    1.54     0  redis-server
04:47:20 PM   996      2376    0.00    0.58    0.00    0.00    0.58     0  postgres
04:47:20 PM   992      2379    0.00    0.19    0.00    0.39    0.19     2  alertmanager
04:47:20 PM   998      2384    0.00    5.79    0.00    2.32    5.79     2  gitlab-unicorn-
04:47:20 PM     0     29627    0.00    5.02    0.00    9.27    5.02     3  kworker/3:0
04:47:20 PM   998     29664    0.58    0.19    0.00    0.39    0.77     1  bundle
04:47:20 PM   998     29804    0.00    0.19    0.00    0.00    0.19     2  ruby
04:47:20 PM     0     30020    2.12   10.81    0.00    0.00   12.93     1  kube-apiserver
04:47:20 PM     0     37236    0.00    0.19    0.00    0.00    0.19     0  sshd
04:47:20 PM  1001     47284    0.19    0.00    0.00    0.00    0.19     3  dashboard
04:47:20 PM     0     54322    1.16    3.86    0.00    0.00    5.02     1  kubelet
04:47:20 PM     0     54791    0.00    0.19    0.00    0.00    0.19     3  docker-containe
04:47:20 PM     0     54811    0.00    0.19    0.00    0.00    0.19     2  kube-proxy
04:47:20 PM     0     59038    0.00    2.90    0.00    4.83    2.90     2  kworker/2:1
04:47:20 PM     0     61225    0.00    0.97    0.00    0.39    0.97     1  kworker/u256:1
04:47:20 PM     0     66049    0.00    0.39    0.00    0.97    0.39     1  kworker/1:2
04:47:20 PM     0     66583    0.00    1.54    0.00    7.14    1.54     0  kworker/0:0
04:47:20 PM     0     67962    0.00    5.79    0.00    0.19    5.79     1  kworker/u256:0
04:47:20 PM     0     69508    0.00   70.27    0.00    9.07   70.27     2  stress
04:47:20 PM     0     69534    0.00    1.74    0.00    0.77    1.74     0  watch
04:47:20 PM     0     70393    0.39    0.97    0.00    0.00    1.35     2  pidstat
04:47:20 PM     0    110663   11.58    6.56    0.00    0.00   18.15     0  dockerd
04:47:20 PM     0    110672    0.00    0.19    0.00    0.00    0.19     0  docker-containe
04:47:20 PM     0    116023    0.00   10.04    0.00    0.00   10.04     2  flanneld
04:47:20 PM     0    118861    0.19    0.77    0.00    0.00    0.97     0  java
04:47:20 PM     0    130631    0.39    2.51    0.00    0.00    2.90     3  coredns
04:47:20 PM     0    130669    0.39    1.16    0.00    0.00    1.54     0  etcd
04:47:20 PM   998    131007    0.00    0.97    0.00    0.00    0.97     1  ruby

Average:      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
Average:        0         1    0.19    0.00    0.00    0.19    0.19     -  systemd
Average:        0         6    0.00    6.95    0.00   22.01    6.95     -  ksoftirqd/0
Average:        0         7    0.00    3.67    0.00    0.00    3.67     -  migration/0
Average:        0         9    0.00    7.34    0.00   12.16    7.34     -  rcu_sched
Average:        0        13    0.00    0.19    0.00    0.00    0.19     -  migration/1
Average:        0        14    0.00    4.05    0.00   16.22    4.05     -  ksoftirqd/1
Average:        0        19    0.00    6.18    0.00   12.55    6.18     -  ksoftirqd/2
Average:        0        22    0.00    0.58    0.00    0.00    0.58     -  watchdog/3
Average:        0        24    0.00   31.27    0.00   15.25   31.27     -  ksoftirqd/3
Average:        0        46    0.00    4.63    0.00    7.53    4.63     -  kswapd0
Average:        0       429    0.00    0.97    0.00    3.67    0.97     -  xfsaild/dm-0
Average:        0       430    0.00    1.74    0.00    0.97    1.74     -  kworker/3:1H
Average:        0       664    0.00    2.12    0.00    4.83    2.12     -  xfsaild/dm-2
Average:        0       776    0.00    0.58    0.00    0.00    0.58     -  kworker/0:1H
Average:      998      2356    1.16    6.37    0.00    0.00    7.53     -  gitaly
Average:      998      2359    1.93    4.25    0.00    0.00    6.18     -  bundle
Average:      992      2370    0.97    0.58    0.00    0.39    1.54     -  prometheus
Average:      997      2375    0.39    1.16    0.00    4.63    1.54     -  redis-server
Average:      996      2376    0.00    0.58    0.00    0.00    0.58     -  postgres
Average:      992      2379    0.00    0.19    0.00    0.39    0.19     -  alertmanager
Average:      998      2384    0.00    5.79    0.00    2.32    5.79     -  gitlab-unicorn-
Average:        0     29627    0.00    5.02    0.00    9.27    5.02     -  kworker/3:0
Average:      998     29664    0.58    0.19    0.00    0.39    0.77     -  bundle
Average:      998     29804    0.00    0.19    0.00    0.00    0.19     -  ruby
Average:        0     30020    2.12   10.81    0.00    0.00   12.93     -  kube-apiserver
Average:        0     37236    0.00    0.19    0.00    0.00    0.19     -  sshd
Average:     1001     47284    0.19    0.00    0.00    0.00    0.19     -  dashboard
Average:        0     54322    1.16    3.86    0.00    0.00    5.02     -  kubelet
Average:        0     54791    0.00    0.19    0.00    0.00    0.19     -  docker-containe
Average:        0     54811    0.00    0.19    0.00    0.00    0.19     -  kube-proxy
Average:        0     59038    0.00    2.90    0.00    4.83    2.90     -  kworker/2:1
Average:        0     61225    0.00    0.97    0.00    0.39    0.97     -  kworker/u256:1
Average:        0     66049    0.00    0.39    0.00    0.97    0.39     -  kworker/1:2
Average:        0     66583    0.00    1.54    0.00    7.14    1.54     -  kworker/0:0
Average:        0     67962    0.00    5.79    0.00    0.19    5.79     -  kworker/u256:0
Average:        0     69508    0.00   70.27    0.00    9.07   70.27     -  stress
Average:        0     69534    0.00    1.74    0.00    0.77    1.74     -  watch
Average:        0     70393    0.39    0.97    0.00    0.00    1.35     -  pidstat
Average:        0    110663   11.58    6.56    0.00    0.00   18.15     -  dockerd
Average:        0    110672    0.00    0.19    0.00    0.00    0.19     -  docker-containe
Average:        0    116023    0.00   10.04    0.00    0.00   10.04     -  flanneld
Average:        0    118861    0.19    0.77    0.00    0.00    0.97     -  java
Average:        0    130631    0.39    2.51    0.00    0.00    2.90     -  coredns
Average:        0    130669    0.39    1.16    0.00    0.00    1.54     -  etcd
Average:      998    131007    0.00    0.97    0.00    0.00    0.97     -  ruby


可以看到具体的进程占据CPU和IO的情况
通过top或者pidstat可以找到具体是哪个进程在频繁IO,从而定位问题原因。

 

以上是影响CPU性能的io等待和本身占用cpu的情况,上下文进程切换也会占用大量的cpu时间

查看整体的上下文切换情况

# vmstat 3
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 7  0      0 2485068  60644 6769928    0    0     4     5    0    0 10  3 87  0  0
 7  0      0 3050228  60648 6770200    0    0     0    21 25328 14864 33 13 54  0  0
 6  0      0 2806932  60648 6770336    0    0     0   340 24736 18375 30 12 58  0  0
 9  0      0 3014652  60656 6770760    0    0     0   156 23689 17207 25 11 64  0  0
 3  0      0 3040732  60656 6771024    0    0     0    28 17294 10516 17  8 75  0  0

r 等待执行的任务数
b 等待IO的进程数量

上下文切换

in 每秒中断数,包括时钟中断
cs 每秒上下文切换数
这两个值越大,会看到由内核消耗的cpu时间sy会越多
秒上下文切换次数,例如我们调用系统函数,就要进行上下文切换,线程的切换,也要进程上下文切换,这个值要越小越好,太大了,要考虑调低线程或者进程的数目


找出具体的上下文切换比较多的进程

# pidstat -w -u 3

cswch/s 自愿的上下文切换
nvcswch/s 强制非自愿的上下文切换


Linux 3.10.0-1127.8.2.el7.x86_64 (server)     10/26/2021     _x86_64_    (16 CPU)

11:28:26 AM   UID       PID    %usr %system  %guest    %CPU   CPU  Command
11:28:29 AM     0         9    0.00    0.33    0.00    0.33    10  rcu_sched
11:28:29 AM     0        29    0.00    0.33    0.00    0.33     4  ksoftirqd/4
11:28:29 AM   500       460    1.32    0.33    0.00    1.65     4  php-fpm
11:28:29 AM   500       542    0.66    0.00    0.00    0.66    14  php-fpm
11:28:29 AM   500       720    0.00    0.33    0.00    0.33     0  nginx
11:28:29 AM   500       723    0.00    0.33    0.00    0.33    12  nginx
11:28:29 AM   500       724    0.00    0.33    0.00    0.33    11  nginx
11:28:29 AM   500       725    0.33    0.33    0.00    0.66    12  nginx
11:28:29 AM   500       726    0.33    0.33    0.00    0.66     7  nginx
11:28:29 AM   500       727    0.99    0.33    0.00    1.32     0  nginx
11:28:29 AM   500       728    4.29    1.32    0.00    5.61     0  nginx
11:28:29 AM   500       729    2.97    0.99    0.00    3.96     0  nginx
11:28:29 AM   500       742    0.66    0.33    0.00    0.99     0  php-fpm
11:28:29 AM     0       805    0.33    0.00    0.00    0.33     8  exe
11:28:29 AM   500      1100    1.32    0.00    0.00    1.32    10  php-fpm
11:28:29 AM   500      1162    0.66    0.00    0.00    0.66     4  php-fpm
11:28:29 AM   500      1180    0.99    0.66    0.00    1.65     4  php-fpm
11:28:29 AM   500      1232    1.32    0.66    0.00    1.98     8  php-fpm
11:28:29 AM   500      1255    0.66    0.00    0.00    0.66     2  php-fpm
11:28:29 AM   500      1357    0.66    0.00    0.00    0.66     0  php-fpm
11:28:29 AM   500      1369    0.99    0.00    0.00    0.99     5  node /data/www/
11:28:29 AM   500      1765    1.65    0.33    0.00    1.98    10  php-fpm
11:28:29 AM     0      2415    0.33    0.00    0.00    0.33     9  containerd
11:28:29 AM   500      2849    0.33    0.33    0.00    0.66     2  php-fpm
11:28:29 AM   500      3115    0.99    0.33    0.00    1.32     4  php-fpm
11:28:29 AM   500      3122    0.99    0.00    0.00    0.99     2  php-fpm
11:28:29 AM   500      3141    0.99    0.33    0.00    1.32     6  php-fpm
11:28:29 AM   500      3144    1.32    0.99    0.00    2.31     2  php-fpm
11:28:29 AM   500      3156    1.32    0.66    0.00    1.98    10  php-fpm
11:28:29 AM   500      3167    1.32    0.33    0.00    1.65     0  php-fpm
11:28:29 AM   500      3337    0.66    0.00    0.00    0.66    12  php-fpm
11:28:29 AM   500      3432    0.66    0.00    0.00    0.66     2  php-fpm
11:28:29 AM   500      3486    0.33    0.00    0.00    0.33    10  PM2 v4.5.1: God
11:28:29 AM   500      3644    7.92    0.33    0.00    8.25     0  node /data/www/
11:28:29 AM   500      3794    0.99    0.33    0.00    1.32     4  php-fpm
11:28:29 AM   500      4082    1.65    0.66    0.00    2.31     4  php-fpm
11:28:29 AM   500      4408    0.33    0.33    0.00    0.66    12  php-fpm
11:28:29 AM   500      4442    1.32    0.66    0.00    1.98    12  php-fpm
11:28:29 AM   500      4468    0.99    0.66    0.00    1.65     6  php-fpm
11:28:29 AM   500      4470    0.66    0.33    0.00    0.99    12  php-fpm
11:28:29 AM   500      4515    0.66    0.33    0.00    0.99    10  php-fpm
11:28:29 AM   500      4569    1.32    0.99    0.00    2.31    10  php-fpm
11:28:29 AM   500      4585    0.33    0.00    0.00    0.33     2  php-fpm
11:28:29 AM   500      4613    0.66    0.00    0.00    0.66    10  php-fpm
11:28:29 AM   500      4636    0.66    0.00    0.00    0.66     7  php-fpm
11:28:29 AM   500      4750    0.99    0.66    0.00    1.65     2  php-fpm
11:28:29 AM   500      4761    0.66    0.33    0.00    0.99     4  php-fpm
11:28:29 AM   500      4763    0.66    0.00    0.00    0.66     6  php-fpm
11:28:29 AM   500      4797    1.32    0.00    0.00    1.32     6  php-fpm
11:28:29 AM   500      4817    0.99    0.33    0.00    1.32     6  php-fpm
11:28:29 AM   500      4848    0.66    0.00    0.00    0.66    10  php-fpm

Average:      UID       PID   cswch/s nvcswch/s  Command
Average:        0        63      0.92      0.00  migration/11
Average:        0        64      0.75      0.00  ksoftirqd/11
Average:        0        67      0.25      0.00  watchdog/12
Average:        0        68      0.37      0.00  migration/12
Average:        0        69      0.86      0.00  ksoftirqd/12
Average:        0        72      0.25      0.00  watchdog/13
Average:        0        73      0.60      0.00  migration/13
Average:        0        74      0.26      0.00  ksoftirqd/13
Average:        0        77      0.25      0.00  watchdog/14
Average:        0        78      0.36      0.00  migration/14
Average:        0        79      1.26      0.00  ksoftirqd/14
Average:        0        82      0.25      0.00  watchdog/15
Average:        0        83      0.97      0.00  migration/15
Average:        0        84      0.22      0.00  ksoftirqd/15
Average:        0        90      0.01      0.00  khungtaskd
Average:        0       108      0.03      0.00  khugepaged
Average:        0       173      0.46      0.00  kauditd
Average:        0       356      0.11      0.00  kworker/6:1H
Average:        0       358      0.25      0.00  kworker/0:1H
Average:        0       371      0.03      0.00  kworker/2:1H
Average:        0       372      0.43      0.00  jbd2/vda1-8
Average:        0       379      0.12      0.00  kworker/13:1H
Average:      500       720     58.32      0.00  nginx
Average:        0       721      0.40      0.00  auditd
Average:      500       723     60.79      0.00  nginx
Average:      500       724     69.17      0.01  nginx
Average:      500       725     97.11      0.04  nginx
Average:      500       726     80.16      0.01  nginx
Average:      500       727    133.17      0.06  nginx
Average:      500       728    246.44      0.22  nginx
Average:      500       729    223.07      0.15  nginx
Average:      500       742      8.16      0.12  php-fpm
Average:        0       746      1.25      0.00  systemd-logind
Average:      999       751      0.82      0.00  polkitd
Average:       81       755      2.47      0.00  dbus-daemon
Average:        0       805      7.98      0.00  exe
Average:      500      1100     10.15      0.18  php-fpm
Average:        0      1153      0.42      0.00  kworker/14:1H
Average:      500      1162      9.68      0.11  php-fpm
Average:      500      1180      8.87      0.12  php-fpm
Average:        0      1195      0.01      0.00  crond
Average:      500      1232      8.58      0.12  php-fpm
Average:      500      1255      9.86      0.11  php-fpm
Average:      500      1357     10.02      0.26  php-fpm
Average:        0      1363      1.33      0.00  kworker/12:0
Average:      500      1369     53.57      0.19  node /data/www/
Average:      500      1765     10.00      0.15  php-fpm
Average:      502      2157      2.14      0.00  nrpe
Average:      500      2849      8.44      0.03  php-fpm
Average:      500      3115      9.36      0.15  php-fpm
Average:      500      3122      8.27      0.35  php-fpm
Average:      500      3141      8.84      0.18  php-fpm
Average:      500      3144      8.73      0.17  php-fpm
Average:        0      3153      1.29      0.00  php-fpm
Average:      500      3156      9.77      0.21  php-fpm
Average:      500      3167      8.50      0.06  php-fpm
Average:      500      3337      9.48      0.18  php-fpm
Average:      500      3432     11.36      0.12  php-fpm
Average:      500      3486     28.36      0.00  PM2 v4.5.1: God
Average:      500      3644     56.77      0.17  node /data/www/
Average:      500      3794      6.18      0.11  php-fpm
Average:      500      3957      1.01      0.00  python

 

posted @ 2021-10-26 11:04  reblue520  阅读(1060)  评论(0编辑  收藏  举报