15-基础篇:Linux内存是怎么工作的?





内存映射

同CPU管理一样,内存管理也是操作系统最核心的功能之一,内存主要用来存储系统和应用程序的指令、数据、缓存等。

内存其实指的是物理内存。
物理内存也称为主存,大多数计算机用的主存都是动态随机访问内存(DRAM),只有内核才可以直接访问物理内存。

那么,进程要访问内存时,该怎么办呢?
Linux内核给每个进程都提供了一个独立的虚拟地址空间,并且这个地址空间是连续的。
这样,进程就可以很方便地访问内存,更确切地说是访问虚拟内存(虚拟地址空间)。

虚拟地址空间的内部又被分为内核空间用户空间两部分,不同字长(也就是单个CPU指令可以处理数据的最大长度)的处理器,
地址空间的范围也不同。比如最常见的32位和64位系统。
用两张图来分别表示它们的虚拟地址空间,如下所示:

image-20211130151346579

通过这里可以看出,32位系统的内核空间占用1G,位于最高处,剩下的3G是用户空间。
而64位系统的内核空间和用户空间都是128T,分别占据整个内存空间的最高和最低处,剩下的中间部分是未定义的。

进程在用户态时,只能访问用户空间内存;
只有进入内核态后,才可以访问内核空间内存。
虽然每个进程的地址空间都包含了内核空间,但这些内核空间,其实关联的都是相同的物理内存。
这样,进程切换到内核态后,就可以很方便地访问内核空间内存。

既然每个进程都有一个这么大的地址空间,那么所有进程的虚拟内存加起来,自然要比实际的物理内存大得多。
所以,并不是所有的虚拟内存都会分配物理内存,
只有那些实际使用的虚拟内存才分配物理内存,并且分配后的物理内存,是通过内存映射来管理的。

内存映射,其实就是将虚拟内存地址映射到物理内存地址。
为了完成内存映射,内核为每个进程都维护了一张页表,记录虚拟地址与物理地址的映射关系,如下图所示:

image-20211130153142874

页表实际上存储在CPU的内存管理单元MMU中,这样,正常情况下,处理器就可以直接通过硬件,找出要访问的内存。

而当进程访问的虚拟地址在页表中查不到时,系统会产生一个缺页异常,进入内核空间分 配物理内存、更新进程页表,最后再返回用户空间,恢复进程的运行。

TLB(Translation Lookaside Buffer, 转译后备缓冲器)会影响CPU的内存访问性能,在这里其实就可以得到解释。
TLB其实就是MMU中页表的高速缓存。
由于进程的虚拟地址空间是独立的,而TLB的访问速度又比MMU快得多,
所以,通过减少进程的上下文切换,减少TLB的刷新次数,就可以提高TLB缓存的使用率,进而提高 CPU 的内存访问性能。

不过要注意,MMU并不以字节为单位来管理内存,而是规定了一个内存映射的最小单位,也就是页,通常是4KB大小。
这样,每一次内存映射,都需要关联4KB 或者4KB整数倍的内存空间。

页的大小只有4KB ,导致的另一个问题就是,整个页表会变得非常大。
比方说,仅32位系统就需要100多万个页表项(4GB/4KB),才可以实现整个地址空间的映射。
为了解决页表项过多的问题,Linux提供了两种机制,也就是多级页表和大页(HugePage)。

多级页表就是把内存分成区块来管理,将原来的映射关系改成区块索引和区块内的偏移。
由于虚拟内存空间通常只用了很少一部分,
那么,多级页表就只保存这些使用中的区块, 这样就可以大大地减少页表的项数。

Linux用的正是四级页表来管理内存页,
如下图所示,虚拟地址被分为5个部分,前4个表项用于选择页,而最后一个索引表示页内偏移。

image-20211130153339815

再看大页,顾名思义,就是比普通页更大的内存块,常见的大小有2MB和1GB。
大页通常用在使用大量内存的进程上,比如Oracle、DPDK等。

通过这些机制,在页表的映射下,进程就可以通过虚拟地址来访问物理内存了。
那么具体 到一个Linux进程中,这些内存又是怎么使用的呢?



虚拟内存空间分布

首先,需要进一步了解虚拟内存空间的分布情况。
最上方的内核空间不用多讲,下方的用户空间内存,其实又被分成了多个不同的段。以32位系统为例,画了一张图来表示它们的关系。

image-20211130153423915

通过这张图可以看到,用户空间内存,从低到高分别是五种不同的内存段。

  1. 只读段,包括代码和常量等。

  2. 数据段,包括全局变量等。

  3. 堆,包括动态分配的内存,从低地址开始向上增长。

  4. 文件映射段,包括动态库、共享内存等,从高地址开始向下增长。

  5. 栈,包括局部变量和函数调用的上下文等。栈的大小是固定的,一般是8MB。

在这五个内存段中,堆和文件映射段的内存是动态分配的。比如说,使用C标准库的malloc() 或者mmap() ,就可以分别在堆和文件映射段动态分配内存。

其实64位系统的内存分布也类似,只不过内存空间要大得多。

那么,内存究竟是怎么分配的呢?



内存分配与回收

malloc()是C标准库提供的内存分配函数,对应到系统调用上,有两种实现方式,即brk()和mmap()。

对小块内存(小于128K),C标准库使用brk()来分配,也就是通过移动堆顶的位置来分配内存。
这些内存释放后并不会立刻归还系统,而是被缓存起来,这样就可以重复使用。
而大块内存(大于128K),则直接使用内存映射mmap()来分配,也就是在文件映射段找一块空闲内存分配出去。

这两种方式,自然各有优缺点。

  1. brk()方式的缓存,可以减少缺页异常的发生,提高内存访问效率。不过,由于这些内存没有归还系统,在内存工作繁忙时,频繁的内存分配和释放会造成内存碎片。

  2. mmap()方式分配的内存,会在释放时直接归还系统,所以每次mmap都会发生缺页异常。在内存工作繁忙时,频繁的内存分配会导致大量的缺页异常,使内核的管理负担增大。这也是malloc只对大块内存使用mmap的原因。

了解这两种调用方式后,还需要清楚一点,那就是,当这两种调用发生后,其实并没有真正分配内存。
这些内存,都只在首次访问时才分配,也就是通过缺页异常进入内核中,再由内核来分配内存。

整体来说,Linux使用伙伴系统来管理内存分配。这些内存在MMU中以页为单位进行管理,伙伴系统也一样,以页为单位来管理内存,并且会通过相邻页的合 并,减少内存碎片化(比如brk方式造成的内存碎片)。

如果遇到比页更小的对象,比如不到1K 的时候,该怎么分配内存呢?
实际系统运行中,确实有大量比页还小的对象,如果为它们也分配单独的页,那就太浪费内存了。
所以,在用户空间,malloc通过 brk() 分配的内存,在释放时并不立即归还系统,而是缓存起来重复利用。
在内核空间,Linux则通过slab分配器来管理小内存。
可以把slab看成构建在伙伴系统上的一个缓存,主要作用就是分配并释放内核中的小对象。

对内存来说,如果只分配而不释放,就会造成内存泄漏,甚至会耗尽系统内存。
所以,在应用程序用完内存后,还需要调用free()或unmap(),来释放这些不用的内存。

当然,系统也不会任由某个进程用完所有内存。
在发现内存紧张时,系统就会通过一系列 机制来回收内存,比如下面这三种方式:

  1. 回收缓存,比如使用LRU(Least Recently Used)算法,回收最近使用最少的内存页面

  2. 回收不常访问的内存,把不常用的内存通过交换分区直接写到磁盘中

  3. 杀死进程,内存紧张时系统还会通过OOM(Out of Memory),直接杀掉占用大量内存的进程

其中,第二种方式回收不常访问的内存时,会用到交换分区(以下简称 Swap)。
Swap其实就是把一块磁盘空间当成内存来用。
它可以把进程暂时不用的数据存储到磁盘中(这个过程称为换出),当进程访问这些内存时,再从磁盘读取这些数据到内存中(这个过程称为换入)。

所以可以发现,Swap把系统的可用内存变大了。
不过要注意,通常只在内存不足时,才会发生Swap交换。
并且由于磁盘读写的速度远比内存慢,Swap会导致严重的内 存性能问题。

第三种方式提到的OOM(Out of Memory),其实是内核的一种保护机制。
它监控进程的内存使用情况,并且使用oom_score为每个进程的内存使用情况进行评分:

  1. 一个进程消耗的内存越大,oom_score就越大
  2. 一个进程运行占用的CPU越多,oom_score就越小

这样,进程的oom_score越大,代表消耗的内存越多,也就越容易被OOM杀死,从而可以更好保护系统。

可以通过 /proc 文件系统,手动设置进程的oom_adj ,从而调整进程的oom_score。
oom_adj 的范围是 [-17, 15],数值越大,表示进程越容易被 OOM 杀死;
数值越小,表示进程越不容易被 OOM 杀死,其中 -17 表示禁止 OOM。
比如用下面的命令,你就可以把 sshd 进程的 oom_adj 调小为 -16,
这样, sshd 进程就 不容易被 OOM 杀死。

 [root@local_sa_192-168-1-6 ~]# echo -16 > /proc/$(pidof sshd)/oom_adj


如何查看内存使用情况

free工具。下面是一个 free 的输出示例:

# 注意不同版本的 free 输出可能会有所不同
# centos7版本
[root@local_sa_192-168-1-6 ~]# free
       total   used    free     shared  buff/cache  available
Mem:   8169348 263524  6875352  668     1030472     7611064
Swap:  0       0       0

free输出的是一个表格,其中的数值都默认以字节为单位。
表格总共有两行六列,这两行分别是物理内存Mem和交换分区Swap的使用情况,而六列中,每列数据的含义分别为:

  1. 第一列,total是总内存大小
  2. 第二列,used是已使用内存的大小,包含了共享内存
  3. 第三列,free是未使用内存的大小
  4. 第四列,shared是共享内存的大小
  5. 第五列,buff/cache是缓存和缓冲区的大小
  6. 最后一列,available是新进程可用内存的大小

最后一列的可用内存available 。available不仅包含未使用内存,还包括了可回收的缓存,所以一般会比未使用内存更大。
不过,并不是所有缓存都可以回收,因为有些缓存可能正在使用中。

查看进程的内存使用情况,可以用top或者ps等工具。比如,下面是top的输出示例:

# 按下 M 切换到内存排序
[root@local_sa_192-168-1-6 ~]# top
...
KiB Mem : 8169348 total, 6871440 free, 267096 used, 1030812 buff/cache
KiB Swap: 0 total, 0 free, 0 used. 7607492 avail Mem
 
 PID   USER   PR  NI  VIRT    RES   SHR   S %CPU %MEM TIME+   COMMAND
 430   root   19  -1  122360  35588 23748 S 0.0  0.4  0:32.17 systemd-journal
 1075  root   20  0   771860  22744 11368 S 0.0  0.3  0:38.89 snapd
 1048  root   20  0   170904  17292 9488  S 0.0  0.2  0:00.24 networkd-dispat
 1     root   20  0   78020   9156  6644  S 0.0  0.1  0:22.92 systemd
12376  azure  20  0   76632   7456  6420  S 0.0  0.1  0:00.01 systemd
12374  root   20  0   107984  7312  6304  S 0.0  0.1  0:00.00 sshd
...

跟内存相关的几列数据,比如VIRT、RES、SHR 以及 %MEM等。这些数据,包含了进程最重要的几个内存使用情况。

  1. VIRT 是进程虚拟内存的大小,只要是进程申请过的内存,即便还没有真正分配物理内存,也会计算在内。
  2. RES 是常驻内存的大小,也就是进程实际使用的物理内存大小,但不包括Swap和共享内存。
  3. SHR 是共享内存的大小,比如与其他进程共同使用的共享内存、加载的动态链接库以及 程序的代码段等。
  4. %MEM是进程使用物理内存占系统总内存的百分比。

除了要认识这些基本信息,在查看top输出时,还要注意两点。

  1. 虚拟内存通常并不会全部分配物理内存。从上面的输出,可以发现每个进程的虚拟内存都比常驻内存大得多。
  2. 第二,共享内存SHR并不一定是共享的,比方说,程序的代码段、非共享的动态链接库, 也都算在SHR里。
    当然,SHR也包括了进程间真正共享的内存。所以在计算多个进程的内存使用时,不要把所有进程的SHR直接相加得出结果。


小结

  1. 对普通进程来说,它能看到的其实是内核提供的虚拟内存,这些虚拟内存还需要通过页表,由系统映射为物理内存。

  2. 当进程通过malloc()申请内存后,内存并不会立即分配,而是在首次访问时,才通过缺页异常陷入内核中分配内存。

  3. 由于进程的虚拟地址空间比物理内存大很多,Linux还提供了一系列的机制,应对内存不足的问题,比如缓存的回收、交换分区Swap以及OOM等。

  4. 当需要了解系统或者进程的内存使用情况时,可以用free和 top 、ps 等性能工具。它 们都是分析性能问题时最常用的性能工具,希望你能熟练使用它们,并真正理解各个指标 的含义。


posted @ 2021-11-30 17:05  李成果  阅读(116)  评论(0编辑  收藏  举报