Linux性能优化-平均负载

目录
  • 平均负载的含义
  • 平均负载为多少时合理
  • 平均负载与 CPU 使用率
  • 平均负载案例分析
    • 场景一:CPU 密集型进程
    • 场景二:I/O 密集型进程
    • 场景三:大量进程的场景
  • 小结


当系统变得卡顿时,我们通常会通过top或者uptime命令来了解系统负载情况。

 

$ uptime
19:47:30 up  6:00,  1 user,  load average: 0.00, 0.01, 0.05

前3列分别是当前时间、系统运行的时间以及正在登录的用户数

19:47:30      //当前时间
up  6:00      //系统运行时间
1 user        //正在登录用户数

load average(平均负载)一词代表的是过去1分钟、5分钟、15分钟的平均负载。

平均负载的含义

简单来说,平均负载是指单位时间内,系统处于可运行状态不可中断状态的平均进程数,也就是平均活跃进程数,它和CPU使用率并没有直接关系。可以通过执行 man uptime 命令,来了解平均负载的详细解释。

  • 可运行状态:正在使用CPU或者正在等待CPU的进程,也就是我们ps命令看到的,处于R状态(Running或Runnable)的进程。
  • 不可中断状态:正处于内核态关键流程中的进程,并且这些流程是不可打断的,比如常见的等待硬件设备的I/O响应,也就是我们在ps命令中看到的D状态(Uninterruptible Sleep,也称为Disk Sleep)的进程。比如,当一个进程向磁盘写数据时,为了保证数据的一致性,在得到磁盘回复前,它是不能被其他进程中断打断的,这个时候的进程就处于不可中断状态。如果此时的进程被打断,就容易出现磁盘数据与进程数据不一致的问题。

不可中断状态实际上是系统对进程和硬件设备的一种保护机制。

因此,你可以简单理解为,平均负载其实就是平均活跃进程数。平均活跃进程数,直观上的理解就是单位时间内的活跃进程数,但它实际上是活跃进程数的指数衰减平均值。这个“指数衰减平均”的详细含义你不用计较,这只是系统的一种更快速的计算方式,你把它直接当成活跃进程数的平均值也没问题。

平均负载为多少时合理

既然平均的是活跃进程数,那么最理想的,就是每个 CPU 上都刚好运行着一个进程,这样每个 CPU 都得到了充分利用。比如当平均负载为 2 时,意味着什么呢?

  • 在只有 2 个 CPU 的系统上,意味着所有的 CPU 都刚好被完全占用。
  • 在 4 个 CPU 的系统上,意味着 CPU 有 50% 的空闲。
  • 而在只有 1 个 CPU 的系统中,则意味着有一半的进程竞争不到 CPU。

那现在我们知道平均负载最理想的情况是等于CPU个数,我们可以通过top命令或者文件/proc/cpuinfo中读取

$ top  #执行top命令后按数字1
top - 20:23:01 up  6:35,  1 user,  load average: 0.02, 0.05, 0.05
Tasks: 161 total,   1 running, 160 sleeping,   0 stopped,   0 zombie
%Cpu0  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu1  :  0.0 us,  0.3 sy,  0.0 ni, 99.7 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem : 14109492 total, 12420040 free,   655876 used,  1033576 buff/cache
KiB Swap:  4063228 total,  4063228 free,        0 used. 11336992 avail Mem 

$ grep 'model name' /proc/cpuinfo | wc -l

有了CPU个数,我们就可以判断出,当平均负载比CPU个数还大的时候,系统已经出现了过载。

关于平均负载的三个数值,可以让我们更全面、更立体地理解当前的负载状况。
当平均负载高于 CPU 数量 70% 的时候,就应该分析排查负载高的问题了。一旦负载过高,就可能导致进程响应变慢,进而影响服务的正常功能。
但 70% 这个数字并不是绝对的,最推荐的方法,还是把系统的平均负载监控起来,然后根据更多的历史数据,判断负载的变化趋势。当发现负载有明显升高趋势时,比如说负载翻倍了,你再去做分析和调查。

平均负载与 CPU 使用率

我们还是要回到平均负载的含义上来,平均负载是指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包括了正在使用 CPU 的进程,还包括等待 CPU 和等待 I/O 的进程。

cpu使用率,是单位时间内 CPU 繁忙情况的统计,跟平均负载并一定完全对应。比如:
CPU 密集型进程,使用大量 CPU 会导致平均负载升高,此时这两者是一致的;
I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU 使用率不一定很高;
大量等待 CPU 的进程调度也会导致平均负载升高,此时的 CPU 使用率也会比较高。

平均负载案例分析

三个示例分别来看这三种情况,并用 iostat、mpstat、pidstat 等工具,找出平均负载升高的根源。

机器配置:2 CPU,8GB 内存。
预先安装 stress 和 sysstat 包,如 apt install stress sysstat。

stress 是一个 Linux 系统压力测试工具,这里我们用作异常进程模拟平均负载升高的场景。

而 sysstat 包含了常用的 Linux 性能工具,用来监控和分析系统的性能。我们的案例会用到这个包的两个命令 mpstat 和 pidstat。

  • mpstat 是一个常用的多核 CPU 性能分析工具,用来实时查看每个 CPU 的性能指标,以及所有 CPU 的平均指标。
  • pidstat 是一个常用的进程性能分析工具,用来实时查看进程的 CPU、内存、I/O 以及上下文切换等性能指标。

Ubuntu:
$ apt install stress sysstat -y

CentOS:
安装stress

$ yum install epel-release -y
$ yum install stree

安装sysstat
yum默认安装的版本较老(10.1.5),pidstat输出不显示%wait,11.5.5版本以后输出中才会有,所以这里使用源码安装最新版本的sysstat

$ yum install gcc git -y
$ git clone https://gitee.com/mirrors/sysstat.git
$ cd sysstat
$ ./configure --disable-nls --prefix=/usr/local/
$ make && make install

场景一:CPU 密集型进程

首先在第一个终端运行 stress 命令,模拟一个 CPU 使用率 100% 的场景:

$ stress --cpu 1 --timeout 600

接着在第二个中断运行uptime查看平均负载的变化情况:

# -d 参数表示高亮显示变化的区域
$ watch -d uptime
...,  load average: 1.00, 0.78, 0.53

最后在第三个终端运行mpstat查看CPU使用率的变化情况:

# 显示所有CPU的指标,并在间隔5秒输出一组数据
$ mpstat -P ALL 5 1
23:07:22     CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
23:07:27     all   10.00    0.00    0.04    0.00    0.00    0.00    0.00    0.00    0.00   89.96
23:07:27       0    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00  100.00
23:07:27       1    0.00    0.00    0.20    0.00    0.00    0.00    0.00    0.00    0.00   99.80
23:07:27       2    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00  100.00
23:07:27       3  100.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00

从终端二中可以看到,1 分钟的平均负载会慢慢增加到 1.00,而从终端三中还可以看到,正好有一个 CPU 的使用率为 100%,但它的 iowait 只有 0。这说明,平均负载的升高正是由于 CPU 使用率为 100% 。

那么到底是哪个进程导致了 CPU 使用率为 100% 呢?现在就使用pidstat来查询:

# 间隔5秒后输出一组数据
$ pidstat -u 5 1
23:18:51      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
23:18:56        0       445    0.00    0.20    0.00    0.00    0.20     8  kworker/8:2
23:18:56        0      1025    0.00    0.60    0.00    0.00    0.60     2  containerd
23:18:56        0     14170   92.42    0.00    0.00    0.00   92.42     0  stress
23:18:56        0     14595    0.00    0.20    0.00    0.00    0.20     9  pidstat

现在可以看到是stress进程的 CPU 使用率为接近 100%。

场景二:I/O 密集型进程

还是运行stess命令,模拟 I/O 压力,即不停地执行 sync:
iowait无法升高的问题,是因为案例中stress使用的是 sync() 系统调用,它的作用是刷新缓冲区内存到磁盘中。对于新安装的虚拟机,缓冲区可能比较小,无法产生大的IO压力,这样大部分就都是系统调用的消耗了。所以,你会看到只有系统CPU使用率升高。解决方法是使用stress的下一代stress-ng,它支持更丰富的选项,比如 stress-ng -i 1 --hdd 1 --timeout 600(--hdd表示读写临时文件)。

$ stress -i 1 --timeout 600

第二个终端运行uptime查看平均负载的变化情况:

$ watch -d uptime
...,  load average: 1.06, 0.58, 0.37

第三个终端运行 mpstat 查看 CPU 使用率的变化情况:

# 显示所有CPU的指标,并在间隔5秒输出一组数据
$ mpstat -P ALL 5 1
13:41:28     CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
13:41:33     all    0.21    0.00   12.07   32.67    0.00    0.21    0.00    0.00    0.00   54.84
13:41:33       0    0.43    0.00   23.87   67.53    0.00    0.43    0.00    0.00    0.00    7.74
13:41:33       1    0.00    0.00    0.81    0.20    0.00    0.00    0.00    0.00    0.00   98.99

从这里可以看到,1 分钟的平均负载会慢慢增加到 1.06,其中一个 CPU 的系统 CPU 使用率升高到了 23.87,而 iowait 高达 67.53%。这说明,平均负载的升高是由于 iowait 的升高。

那么到底是哪个进程,导致 iowait 这么高呢?我们还是用 pidstat 来查询:

# 间隔5秒后输出一组数据,-u表示CPU指标
$ pidstat -u 5 1
Linux 4.15.0 (ubuntu)     09/22/18     _x86_64_    (2 CPU)
13:42:08      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
13:42:13        0       104    0.00    3.39    0.00    0.00    3.39     1  kworker/1:1H
13:42:13        0       109    0.00    0.40    0.00    0.00    0.40     0  kworker/0:1H
13:42:13        0      2997    2.00   35.53    0.00    3.99   37.52     1  stress
13:42:13        0      3057    0.00    0.40    0.00    0.00    0.40     0  pidstat

可以发现,还是 stress 进程导致的。

场景三:大量进程的场景

当系统运行程序超出 CPU 运行能力时,就会出现等待 CPU 的进程。
比如,我们还是使用 stress,但这次模拟的是 8 个进程:

$ stress -c 8 --timeout 600

由于系统只有 2 个 CPU,明显比 8 个进程要少得多,因而,系统的 CPU 处于严重过载状态,平均负载高达 7.97:

$ uptime
..., load average: 7.97, 5.93, 3.02

接着再运行 pidstat 来看一下进程的情况:

# 间隔5秒后输出一组数据
$ pidstat -u 5 1
14:23:25      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
14:23:30        0      3190   25.00    0.00    0.00   74.80   25.00     0  stress
14:23:30        0      3191   25.00    0.00    0.00   75.20   25.00     0  stress
14:23:30        0      3192   25.00    0.00    0.00   74.80   25.00     1  stress
14:23:30        0      3193   25.00    0.00    0.00   75.00   25.00     1  stress
14:23:30        0      3194   24.80    0.00    0.00   74.60   24.80     0  stress
14:23:30        0      3195   24.80    0.00    0.00   75.00   24.80     0  stress
14:23:30        0      3196   24.80    0.00    0.00   74.60   24.80     1  stress
14:23:30        0      3197   24.80    0.00    0.00   74.80   24.80     1  stress
14:23:30        0      3200    0.00    0.20    0.00    0.20    0.20     0  pidstat

可以看出,8 个进程在争抢 2 个 CPU,每个进程等待 CPU 的时间(也就是代码块中的 %wait 列)高达 75%。这些超出 CPU 计算能力的进程,最终导致 CPU 过载。

小结

分析完这三个案例,来归纳一下平均负载的理解。平均负载提供了一个快速查看系统整体性能的手段,反映了整体的负载情况。但只看平均负载本身,我们并不能直接发现,到底是哪里出现了瓶颈。所以,在理解平均负载时,也要注意:

  • 平均负载高有可能是 CPU 密集型进程导致的;
  • 平均负载高并不一定代表 CPU 使用率高,还有可能是 I/O 更繁忙了;
  • 当发现负载高的时候,你可以使用 mpstat、pidstat 等工具,辅助分析负载的来源。

文章来源:https://www.cnblogs.com/Pyke/p/15156943.html?utm_source=gold_browser_extension

posted @ 2021-08-18 16:45  MR__Wang  阅读(233)  评论(0编辑  收藏  举报