操作系统第三章 内存管理

第三章 内存管理

3.1 内存的基本知识

本节仅仅是介绍以下内存的相关知识,作为后续知识的基础

3.1.1 内存的定义和作用

手机 笔记本 内存条
  • 磁盘的读写速度很慢,而CPU的处理速度很快,二者之间速度不匹配
  • 内存可存放数据。程序执行前需要先放到内存中才能被CPU处理——缓和CPU与硬盘之间的速度矛盾

(1) 内存编址 & 存储单元

  • 思考:在多道程序环境下,系统中会有多个程序并发执行,也就是说会有多个程序的数据需要同时放到内存中。那么,如何区分各个程序的数据是放在什么地方的呢?
  • 方案:给内存的存储单元编地址

  • 内存地址从0开始,每个地址对应个存储单元
  • 内存中也有一个一个的“小房间”,每个小房间就是一个“存储单元
  • 如果计算机“按字节编址”,则每个存储单元大小为1字节,即1B,即8个二进制位
  • 如果字长为16位的计算机“按字编址”,则每个存储单元大小为1个字;每个字的大小为16个二进制位

区分按字节编址和按字编址


(2) 常用的数量单位

补充知识:常用的数量单位

  • 一台手机/电脑有4GB内存,是什么意思?
  • 是指该内存中可以存放4*230个字节。如果是按字节编址的话,也就是有4*230 = 232个“小房间”
  • 这么多“小房间”,需要232个地址才能一一标识,所以地址需要用32个二进制位来表示(0~232-1)
数值 单位 读作
210 1K
220 1M 兆,百万
230 1G 十亿,千兆

注:有的题目会告诉我们内存的大小,让我们确定地址长度应该是多少(即要多少个二进制位才能表示相应数目的存储单元)

3.1.2 进程运行的基本原理

(1) 指令的工作原理

指令的工作基于"地址",每个地址对应一个数据的存储单元

  1. 首先代码通过编译形成一条条指令(程序)

  1. 每个进程在内存中对应着程序段数据段,其中程序放在程序段中,数据在数据段中

  1. 运行过程需要CPU,内存和寄存器一起作用,以上面的案例举例(这些指令是随意写的,只是作为示范

可见,我们写的代码要翻译成CPU能识别的指令。这些指令会告诉CPU应该去内存的哪个地址读/写数据这个数据应该做什么样的处理。

在这个例子中,我们默认让这个进程的相关内容从地址#0开始连续存放,指令中的地址参数直接给出了变量x的实际存放地址(物理地址)。

思考:如果这个讲程不是从地址#0开始存放的,会影响指令的正常执行吗?(引出下文)

(2) 逻辑地址 & 物理地址

Tip:为了简化理解,本节中我们默认操作系统给进程分配的是一片连续的内存空间

c语言程序经过编译、链接处理后,生成装入模块,即可执行文件:int x = 10; x=x+1;

程序经过编译、链接后生成的指令中指明的是逻辑地址(相对地址),即:相对于进程的起始地址而言的地址

也就是代码生成可执行文件得到的是逻辑地址(很正常,因为可执行文件与内存地址无关,只能使用逻辑地址)

物理地址(内存的实际地址)

程序要装入内存当中

但是如果程序的其实地址不是0,是其他的值,就会出问题

  • 可以看到,如果按照逻辑地址的话,那么变量x会存放到物理地址79,但实际上应该的物理地址是 100 + 79 = 179

问题:如何将指令中的的逻辑地址转换为物理地址

解决办法就在装入的过程中进行地址转换

(3) 从写程序到程序运行的流程

  • 编译:由编译程序将用户源代码编译成若干个目标模块编译就是把高级语言翻译为机器语言)
  • 链接:由链接程序将编译后形成的一组目标模块,以及所需库函数链接在一起,形成一个完整的装入模块
  • 装入(装载):由装入程序将装入模块装入内存运行

之前装入已经讲过了,下面先将链接的过程(链接不属于操作系统要做的事情)

(4) 链接的三种方式

  1. 静态链接:在程序运行之前先将各目标模块及它们所需的库函数连接成一个完整的可执行文件(装入模块),之后不再拆开

  2. 装入时动态链接:将各目标模块装入内存时,边装入边链接的链接方式

  3. 运行时动态链接:在程序执行中需要该目标模块时,才对它进行链接

    其优点是便于修改和更新,便于实现对目标模块的共享;灵活性更高,提高了对内存的利用率

静态链接 装入时动态链接 运行时动态链接

3.2 内存管理的要求

这是本章的框架

操作系统作为系统资源的管理者,当然也需要对内存进行管理,要管些什么呢?

  1. 操作系统负责内存空间的分配与回收
  2. 操作系统需要提供某种技术从逻辑上对内存空间进行扩充
  3. 操作系统需要提供地址转换功能,负责程序的逻辑地址与物理地址的转换
  4. 操作系统需要提供内存保护功能。保证各进程在各自存储空间内运行,互不干扰

  1. 操作系统负责内存空间的分配与回收

  1. 操作系统需要提供某种技术从逻辑上对内存空间进行扩充

​ 游戏GTA的大小超过60GB,按理来说这个游戏程序运行之前需要把60GB数据全部放入内存。然而,实际我的电脑内存才4GB,但为什么这个游戏可以顺利运行呢? ——虚拟技术(操作系统的虚拟性)


  1. 操作系统需要提供地址转换功能,负责程序的逻辑地址与物理地址的转换

​ 为了使编程更方便,程序员写程序时应该只需要关注指令、数据的逻辑地址。而逻辑地址到物理地址的转换(这个过程称为地址重定位)应该由操作系统负责,这样就保证了程序员写程序时不需要关注物理内存的实际情况。


  1. 操作系统需要提供内存保护功能。保证各进程在各自存储空间内运行,互不干扰

下面是如何实现这些功能

3.3 内存保护(连续分配管理方式)

首先先将内存保护吧

内存保护:操作系统需要提供内存保护功能。保证各进程在各自存储空间内运行,互不干扰

3.3.1 设置上下线寄存器

方法一:在CPU中设置一对上、下限寄存器存放进程的上、下限地址。进程的指令要访问某个地址时,CPU检查是否越界。


3.3.2 重定位+界地址寄存区

方法二:采用重定位寄存器(又称基址寄存器)和界地址寄存器(又称限长寄存器)进行越界检查。

  • 重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址

3.4 地址转换(连续分配管理方式)

  • 解决的是将程序中的逻辑地址转换为内存物理地址
  • 这个适用于内存连续分配空间给内存的时候的地址转换,但是非连续分配有自己的地址转换方式
  • 非连续分配在对应的一节中

三种装入方式:

  1. 绝对装入
  2. 可重定位装入(静态重定位)
  3. 动态运行时装入(动态重定位)

3.4.1 绝对装入

绝对装入:在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址的目标代码。装入程序按照装入模块中的地址,将程序和数据装入内存。

也就是在可执行文件中的代码就已经是转换过的物理代码了

Eg:如果知道装入模块要从地址为100的地方开始存放...

缺点:

  • 绝对装入只适用于单道程序环境。(因为不知道其他程序用什么地址,单道程序环境也就不属于操作系统了)
  • 这种方式的灵活性比较低,加入要可执行文件移到另一台电脑上,这包括将文件中的内存地址也移过去了,但是可能那台电脑并不允许操作对应的内存空间

3.4.2 可重定位装入(静态重定位)

静态重定位:又称可重定位装入。

  • 编译、链接后的装入模块的地址都是从0开始的,指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。
  • 可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行“重定位”,将逻辑地址变换为物理地址(地址变换是在装入时一次完成的

  • 静态重定位的特点是在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能装入该作业。
  • 作业一旦进入内存后,在运行期间就不能再移动,也不能再申请内存空间。(所以称为静态)

3.4.3 动态运行时装入(动态重定位)

动态重定位:又称动态运行时装入。

  • 编译、链接后的装入模块的地址都是从0开始的。

  • 装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行。因此装入内存后所有的地址依然是逻辑地址

  • 这种方式需要一个重定位寄存器的支持。
    | | |
    | ------------------------------------------------------------ | ------------------------------------------------------------ |

  • 采用动态重定位时允许程序在内存中发生移动。(只要修改重定位寄存器中的初始地址即可)

  • 并且可将程序分配到不连续的存储区中;在程序运行前只需装入它的部分代码即可投入运行,然后在程序运行期间,根据需要动态申请分配内存;便于程序段的共享,可以向用户提供一个比存储空间大得多的地址空间。

3.5 内存空间的扩充(覆盖&交换)

虚拟机存储技术后面单独讲

3.5.1 覆盖技术

  • 早期的计算机内存很小,比如IBM推出的第一台PC机最大只支持1MB大小的内存。因此经常会出现内存大小不够的情况。

  • 后来人们引入了覆盖技术,用来解决“程序大小超过物理内存总和”的问题:

(1) 技术思想

  • 覆盖技术的思想:将程序分为多个段(多个模块)。常用的段常驻内存,不常用的段在需要时调入内存
  • 内存中分为一个“固定区”若干个“覆盖区”
  • 需要常驻内存的段放在“固定区”中,调入后就不再调出(除非运行结束)
  • 不常用的段放在“覆盖区”,需要用到时调入内存,用不到时调出内存

例如

某程序X的调用结构

在此结构中,统一层级的程序不能同时被调用:比如B和C不能同时调用

则分配如下

  • 每一块的大小取对应层级的最大值,比如BC一层,C最大为10K,对应的覆盖区大小为10K
  • 需要的时候将调用的模块调入即可,比如调用B的时候将B的程序调入覆盖区0,调用C的时候将C程序调入覆盖区0

当程序有明显的分层结构的时候可以这样做

(2) 缺点

  • 必须由程序员声明覆盖结构,操作系统完成自动覆盖。
  • 缺点:对用户不透明,增加了用户编程负担(因此,覆盖技术现在已经很少使用了,退出了历史的舞台)

3.5.2 交换技术

(1) 技术思想

交换(对换)技术的设计思想:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)

与第二章中学过的中级调度相关:中级调度(内存调度),就是要决定将哪个处于挂起状态的进程重新调入内存。

1. 内存空间紧张的时候,将进程放到外存

2. 进程对应的PCB会保留到内存当中,并且插入到挂起队列

3. 内存不紧张之后,可以将进程唤入内存

为什么PCB要常驻内存:进程放到外存之后,必须记录放到外存的位置,这个就由PCB记录(否则内存无法操纵保存到外存的程序)


在这里回忆一下挂起状态

  • 暂时换出外存等待的进程状态为挂起状态(挂起态,suspend)
  • 挂起态又可以进一步细分为就绪挂起、阻塞挂起两种状态

(2) 相关问题

  1. 应该在外存(磁盘)的什么位置保存被换出的进程?
  2. 什么时候应该交换?
  3. 应该换出哪些进程?

应该在外存(磁盘)的什么位置保存被换出的进程?

  1. 具有对换功能的操作系统中,通常把磁盘空间分为文件区对换区两部分。
  2. 文件区主要用于存放文件,主要追求存储空间的利用率,因此对文件区空间的管理采用离散分配方式
  3. 对换区空间只占磁盘空间的小部分,被换出的进程数据就存放在对换区。由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理主要追求换入换出速度,因此通常对换区采用连续分配方式(学过文件管理章节后即可理解)。
  4. 总之,对换区的I/O速度比文件区的更快

什么时候应该交换

  • 交换通常在许多进程运行且内存吃紧时进行而系统负荷降低就暂停。
  • 例如:在发现许多进程运行时经常发生缺页,就说明内存紧张,此时可以换出一些进程
  • 如果缺页率明显下降,就可以暂停换出。

应该换出哪些进程

  1. 可优先换出阻塞进程
  2. 可换出优先级低的进程
  3. 为了防止优先级低的进程在被调入内存后很快又被换出,有的系统还会考虑进程在内存的驻留时间...

(注意:PCB会常驻内存,不会被换出外存)

覆盖 VS 交换

覆盖和交换的区别

  1. 覆盖是在同一个程序或进程中的
  2. 交换是在不同进程(或作业)之间的

本节会多考选择题,注意框主的内容常考

3.6 内存空间的分配与回收(连续分配)

  • 连续分配:指为用户进程分配的必须是一个连续的内存空间。

3.6.1 单一连续分配

(1) 思路

  • 在单一连续分配方式中,内存被分为系统区用户区
  • 系统区通常位于内存的低地址部分,用于存放操作系统相关数据
  • 用户区用于存放用户进程相关数据。
  • 内存中只能有一道用户程序,用户程序独占整个用户区空间。

  • 上图中,蓝色的部分并没有进程,但是其他进程不能使用

(2) 优缺点

优点

  1. 实现简单
  2. 无外部碎片(后面会将这个概念)
  3. 可以采用覆盖技术扩充内存(因为一整个空间都给了一个程序了,同时也说明这种方法适用于单道进程)
  4. 不一定需要采取内存保护(eg:早期的PC操作系统MS-DOS片。因为只允许一道程序,不用担心访问到别的程序的内存如果访问了系统区,那么重启计算机就行)

缺点

  1. 只能用于单用户、单任务的操作系统中
  2. 有内部碎片(分配给某进程的内存区域中,如果有些部分没有用上,就是“内部碎片”)
  3. 存储器利用率极低。

3.6.2 固定分区分配

(1) 思路

20世纪60年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会相互干扰,于是将整个用户空间划分为若干个固定大小的分区,在每个分区中只装入一道作业,这样就形成了最早的、最简单的一种可运行多道程序的内存管理方式

有两种分类:

  1. 分区大小相等
  2. 分区大小不等
内存(分区大小相等) 内存(分区大小不等)
两种固定分区分配的示意图

比较:

  • 分区大小相等:缺乏灵活性,但是很适合用于用一台计算机控制多个相同对象的场合(比如:钢铁厂有n个相同的炼钢炉,就可把内存分为n个大小相等的区域存放n个炼钢炉控制程序)(分区大小相等现在也在使用)
  • 分区大小不等:增加了灵活性,可以满足不同大小的进程需求。根据常在系统中运行的作业大小情况进行划分(比如:划分多个小分区、适量中等分区、少量大分区)

但是系统怎么记录内存分区的情况呢?

(2) 记录分区结构

  • 操作系统需要建立一个数据结构——分区说明表,来实现各个分区的分配与收。
  • 每个表项对应一个分区,通常按分区大小排列。
  • 每个表项包括对应分区大小、起始地址、状态(是否已分配)
分区 大小(MB) 起始地址(M) 状态
1 2 8 未分配
2 2 10 未分配
3 4 12 已分配
... ... ... ...
分区说明表

用数据结构的数组(或链表)即可表示这个表

当某用户程序要装入内存时,由操作系统内核程序根据用户程序大小检索该表,从中找到一个能满足大小的、未分配的分区,将之分配给该程序,然后修改状态为“已分配”。

(3) 优缺点

  • 优点:实现简单,无外部碎片
  • 缺点:
    1. 当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能
    2. 会产生内部碎片,内存利用率低。

3.6.3 动态分区分配

动态分区分配又称为可变分区分配

(1) 思路

  • 这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要
  • 因此系统分区的大小和数目是可变的。
  • (eg:假设某计算机内存大小为64MB,系统区8MB,用户区共56 MB.….)

  • 如图,分区不是预先建立好的,进程有多大,分区就有多大

  1. 系统要用什么样的数据结构记录内存的使用情况?
  2. 当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?
  3. 如何进行分区的分配与回收操作?

(2) 空闲分区数据结构

系统要用什么样的数据结构记录内存的使用情况?

两种常用的数据结构

  • 空闲分区表
  • 空闲分区链

空闲分区表:每个空闲分区对应一个表项。表项中包含分区号、分区大小、分区起始地址和状态等信息

分区号 分区大小(MB) 起始地址(M) 状态
1 20 8 空闲
2 10 32 空闲
3 4 60 空闲
空闲分区表

空闲分区链:每个分区的起始部分和末尾部分分别改置前向指针和后向指针。起始部分处还可记录分区大小等信息

空闲分区链

(3) 动态分区分配算法

当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?

  • 把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配给该作业。由于分配算法算法对系统性能有很大的影响,因此人们对它进行了广泛的研究。
  • 下个小节会介绍四种动态分区分配算法....

这个是考察的重点,选择题和大题都会考的

动态分区分配算法:在动态分区分配方式中,当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?

① 首次适应算法
  • 算法思想:每次都从低地址开始查找,找到第一个能满足大小的空闲分区。
  • 如何实现:空闲分区以地址递增的次序排列。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
分配前 分配后

下面以动态分区链为例演示一下(动态分区表同理)

分配前 分配后
image-20230803141619441 image-20230803141710692
image-20230803142141385 image-20230803142132707
② 最佳适应算法

算法思想:由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。因此为了保证当“大进程”到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区,即,优先使用更小的空闲区

  • 如何实现:空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
内存使用情况 空闲分区表/分区链
分配前 分配后

缺点:每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块。因此这种方法会产生很多的外部碎片。

③ 最坏适应算法

又称最大适应算法(Largest Fit)

  • 算法思想:为了解决最佳适应算法的问题――即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。
  • 如何实现:空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
内存使用情况 空闲分区表/分区链
使用情况

缺点:每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完

如果之后有“大进程”到达,就没有内存分区可用了。(产生外部碎片)

④ 临近适应算法
  • 算法思想:首次适应算法每次都从链头开始查找的。这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。如果每次都从上次查找结束的位置开始检索,就能解决上述问题
  • 如何实现:空闲分区以地址递增的顺序排列(可排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。

临近适应算法解决的是首次适应算法的查找效率慢问题

内存使用情况 空闲分区链
分配前 分配后
  • 首次适应算法每次都要从头查找,每次都需要检索低地址的小分区。但是这种规则也决定了当低地址部分有更小的分区可以满足需求时,会更有可能用到低地址部分的小分区,也会更有可能把高地址部分的大分区保留下来(最佳适应算法的优点
  • 邻近适应算法的规则可能会导致无论低地址、高地址部分的空闲分区都有相同的概率被使用,也就导致了高地址部分的大分区更可能被使用,划分为小分区,最后导致无大分区可用(最大适应算法的缺点)
  • 综合来看,四种算法中,首次适应算法的效果反而更好
比较
算法 算法思想 分区排列顺序 优点 缺点
首次适应 从头到尾找适合的分区 空闲分区以地址递增次序排列 综合看性能最好。算法开销小,回收分区后一般不需要对空闲分区队列重新排序
最佳适应 优先使用更小的分区,以保留更多大分区 空闲分区以容量递增次序排列 会有更多的大分区被保留下来,更能满足大进程需求 会产生很多太小的、难以利用的碎片;
算法开销大,回收分区后可能需要对空闲分区队列重新排序
最坏适应 优先使用更大的分区,以防止产生太小的不可用的碎片 空闲分区以容量递减次序排列 可以减少难以利用的小碎片 大分区容易被用完,不利于大进程
算法开销大(原因同上)
邻近适应 由首次适应演变而来,每次从上次查找结束位置开始查找 空闲分区以地址递增次序排列(可排列成循环链表) 不用每次都从低地址的小分区开始检索。算法开销小(原因同首次适应算法) 会使高地址的大分区也被用完

(4) 分配回收方法

本节是在上述动态分区分配算法的基础上,讨论在进行分配和回收的时候,如何修改数据结构(这里以空闲分区表为例,分区链同理)

① 分配

内存使用情况和对应的空闲分区表如下

内存使用情况 空闲分区表
image-20230803133350871 image-20230803134150882
情况 内存使用情况 动态分区表
情况一:分区大小大于进程的大小
则只要修改表中分区的大小和起始位置即可

空闲分区表仅仅记录空闲分区的位置
情况2:分区的大小 = 进程的大小
从表中删除对应的表象
② 回收

内存使用情况和动态分区表如下

内存使用情况 空闲分区表

回收有以下几种情况

情况 起始内存使用情况 内存使用情况 空闲分区表
情况一:回收区的后面有一个相邻的空闲分区
两个相邻的空闲分区合并为一个
情况二:回收区的前面有一个相邻的空闲分区
两个相邻的空闲分区合并为一个
情况三:回收区的前、后各有一个相邻的空闲分区
三个相邻的空闲分区合并为一个
情况四:回收区的前、后都没有相邻的空闲分区
新增一个表项

注:各表项的顺序不一定按照地址递增顺序排列,具体的排列方式需要依据动态分区分配算法来确定。

(5) 内外部碎片 & 拼凑

  • 动态分区分配又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程装入内存时根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要。
  • 因此系统分区的大小和数目是可变的。

动态分区分配没有内部碎片,但是有外部碎片

  • 内部碎片,分配给某进程的内存区域中,如果有些部分没有用上。
  • 外部碎片,是指内存中的某些空闲分区由于太小而难以利用

  • 如果内存中空闲空间的总和本来可以满足某进程的要求,但由于进程需要的是一整块连续的内存空间,因此这些“碎片”不能满足进程的需求。
  • 可以通过紧凑(拼凑,Compaction)技术来解决外部碎片
拼凑前 拼凑 拼凑后

拼凑之后要做的处理就是修改进程的其实地址,也就是修改PCB;以及修改空闲分区表

3.6.4 小结

  • 选择题常考是否有内外部碎片

单一连续分配,只给一个进程分配,剩余的就不分了,所以有内部碎片,但是剩余空间可能很大,因此不会有外部碎片

固定分区分配也是同理,分区是固定的,必定能有容得下的进程,但是有的分区可能用不上

3.7 内存空间的分配与回收(非连续分配)

  • 连续分配:为用户进程分配的必须是一个连续的内存空间。
  • 非连续分配:为用户进程分配的可以是一些分散的内存空间。

3.7.1 基本分页存储管理

(1) 分页思想

  • 内存空间分为一个个大小相等的分区(比如:每个分区4KB),每个分区就是一个“页框”(页框=页帧=内存块=物理块=物理页面)。每个页框有一个编号,即“页框号”(页框号=页帧号=内存块号=物理块号=物理页号),页框号从0开始。
  • 进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个“”或“页面”。每个页面也有一个编号,即“页号”,页号也是从0开始。

如下,主要是看到

  • 内存分页
  • 进程也分页,并且进程的页面大小 = 内存的页框大小
内存分页 进程如下 进程分页
  • 要区分概念,对于进程就是 页=页面,对于内存就是 页框=页帧=内存块=物理块=物理页面,还是比较好理解的,内存相当于框,但是进程就相当于放入框中的页面
  • 在下面讲解的时候,内存分页多用内存框,但是在答题的时候,页帧是比较标准的
  • 操作系统以页框为单位为各个进程分配内存空间
  • 进程的每个页面分别放入一个页框中。也就是说,进程的页面与内存的页框有一一对应的关系
  • 各个页面不必连续存放,可以放到不相邻的各个页框中

(2) 映射记录——页表

  • 为了能知道进程的每个页面在内存中存放的位置,操作系统要为每个进程建立一张页表。
  • 注:页表通常存在PCB(进程控制块)中

  1. 一个进程对应一张页表
  2. 进程的每个页面对应一个页表项
  3. 每个页表项由“页号”和“块号”组成
  4. 页表记录进程页面实际存放的内存块之间的映射关系
  5. 每个页表项的长度是相同的

关于页表项,有以下几个问题:

  1. 每个页表项多大?占几个字节?
  2. 如何通过页表实现逻辑地址到物理地址的转换?

(3) 页表项的字节数

Eg:假设某系统物理内存大小4GB,页面大小为4KB,则每个页表项至少应该为多少字节?

页表是有页号块号组成的

下面分别讨论


首先是块号

  • 内存块大小=页面大小=4KB= 212B
  • 4GB的内存总共会被公为232/212=220个内存块
  • 内存块号的范围应该是0~220-1
  • 内存块号至少要用20 bit来表示
  • 至少要用3B,也就是3个字节存放(3B = 24字节)

重要考点:计算机中内存块的数量→页表项中块号至少占多少字节


然后是页号

  • 假设页表中的各页表项从内存地址为x的地方开始连续存放...如何找到页号为i的页表项?
  • i号页表项的存放地址=X+3*i
  • 因此,页表中的页号可以是隐含的,即页号不占用存储空间

页号就相当于数组的下标


总的来说

Eg:假设某系统物理内存大小为4GB,页面大小为4KB,则每个页表项至少应该为多少字节?

  • 内存块大小=页面大小=4KB= 212B
  • 4GB的内存总共会被公为232/212=220个内存块
  • 内存块号的范围应该是0~220-1
  • 内存块号至少要用20 bit来表示
  • 至少要用3B,也就是3个字节存放(3B = 24字节)
  • 由于页号是隐含的,因此每个页表项占3B,存储整个页表至少需要3*(n+1)B(总共是0-n,也就是n+1个表项)

注意:页表记录的只是内存块号,而不是内存块的起始地址! J号内存块的起始地址=J*内存块大小

但是这仅仅是理论上,实际上并不是如此,这与地址转换相关


3.7.2 基本分段存储管理

  • 与“分页”最大的区别就是——离散分配时所分配地址空间的基本单位不同

(1) 分段思想

  • 进程的地址空间:按照程序自身的逻辑关系划分为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程,比如汇编语言),每段从0开始编址
  • 内存分配规则:以段为单位进行分配,每个段在内存中占据连续空间,但各段之间可以不相邻。

优点:由于是按逻辑功能模块划分,用户编程更方便,程序的可读性更高

LOAD 1,[D] | <A>; //将分段D中A单元内的值读入寄存器1
STORE 1,[X] |<B>; //将寄存器1的内容存入X分段的B单元中

编译程序会将段名转换为段号

分段系统的逻辑地址结构由段号(段名)和段内地址(段内偏移量)所组成。如:

  • 段号的位数决定了每个进程最多可以分几个段
  • 段内地址位数决定了每个段的最大长度是多少

在上述例子中,若系统是按字节寻址的,则

  • 段号占16位,因此在该系统中,每个进程最多有216=64K个段
  • 段内地址占16位,因此每个段的最大长度是216 =64KB。

LOAD 1,[D] | <A>; //将分段D中A单元内的值读入寄存器1
STORE 1,[X] |<B>; //将寄存器1的内容存入X分段的B单元中
  • 写程序时使用的段名[D]、[X]会被编译程序翻译成对应段号
  • <A>单元、<B>单元会被编译程序翻译成段内地址
  • 也就是 [D] | <A>会被翻译为完整的逻辑地址

(2) 映射记录——段表

  • 问题:程序分多个段,各段离散地装入内存,为了保证程序能正常运行就必须能从物理内存中找到各个逻辑段的存放位置。
  • 为此,需为每个进程建立一张段映射表,简称“段表”。

  1. 每个段对应一个段表项,其中记录了该段在内存中的起始位置(又称“基址”)和段的长度
  2. 各个段表项的长度是相同的。

例如:某系统按字节寻址,采用分段存储管理

  • 逻辑地址结构为(段号16位,段内地址16位),因此用16位即可表示最大段长。
  • 物理内存大小为4GB (可用32位表示整个物理内存地址空间)。
  • 因此,可以让每个段表项占16+32=48位,即6B。
  • 由于段表项长度相同,因此段号可以是隐含的,不占存储空间
  • 若段表存放的起始地址为M,则K号段对应的段表项存放的地址为M+K*6

分页 VS 分段

分页和分段的对比还是经常考察的

  1. 是信息的物理单位分页的主要目的是为了实现离散分配,提高内存利用率。分页仅仅是系统管理上的需要,完全是系统行为对用户是不可见的

    是信息的逻辑单位分段的主要目的是更好地满足用户需求。一个段通常包含着一组属于一个逻辑模块的信息。分段对用户是可见的,用户编程时需要显式地给出段名

  2. 页的大小固定且由系统决定。段的长度却不固定,决定于用户编写的程序

  3. 分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。

    分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址。

  • 对于第三点,由于页框的大小是固定的,因此给出逻辑地址即可自动解析得到页号和业内偏移
  • 但是分段,段的大小不是固定的,所以需要给出断号
  • 分页中,用户也知道地址是连续的;但是分段中,用户知道内存空间不是连续的

  1. 分段比分页更容易实现信息的共享和保护。不能被修改的代码称为纯代码或可重入代码(不属于临界资源),这样的代码是可以共享的。可修改的代码是不能共享的

访问一个逻辑地址需要几次访存?

  • 分页(单级页表):第一次访存――查内存中的页表,第二次访存――访问目标内存单元。总共两次访存
  • 分段:第一次访存――查内存中的段表,第二次访存――访问目标内存单元。总共两次访存
  • 与分页系统类似,分段系统中也可以引入快表机构,将近期访问过的段表项放到快表中,这样可以少一次访问,加快地址变换速度

分段比分页更容易实现信息的共享和保护

  1. 首先来看分段

  • 如上图,生产者进程A和消费者进程B要共享一段内存,只要在他们的段表中加入该段内存的信息即可
  • 不能被修改的代码称为纯代码可重入代码(不属于临界资源),这样的代码是可以共享的。
  • 可修改的代码是不能共享的(比如,有一外代码段中有很多变量,各进程并发地同时访问可能造成数据不一致)

  1. 然后来看分页

3.7.3 段页式管理方式

(1) 分页、分段的优缺点分析

优点 缺点
分页管理 内存空间利用率高,不会产生外部碎片,只会有少量的页内碎片 不方便按照逻辑模块实现信息的共享和保护
分段管理 很方便按照逻辑模块实现信息的共享和保护 如果段长过大,为其分配很大的连续空间会很不方便。另外,段式管理会产生外部碎片

分段产生外部碎片的流程(原因就是段的大小不是固定的,会有很大的段)

分段管理中产生的外部碎片也可以用“紧凑”来解决,只是需要付出较大的时间代价

(2) 段页式管理思想

  • 将进程按逻辑模块分段再将各段分页(如每个页面4KB)
  • 再将内存空间分为大小相同内存块/页框/页帧/物理块
  • 进程前将各页面分别装入各内存块中

(3) 逻辑地址结构

分段系统的逻辑地址结构由段号和段内地址(段内偏移量)组成。如:

段页式系统的逻辑地址结构由段号、页号、页内地址(页内偏移量)组成。如:

  • 就是将每个段分页,然后端内地址按照分页管理的方式

  • 段号的位数决定了每个进程最多可以分几个段
  • 页号位数决定了每个段最大有多少页
  • 页内偏移量决定了页面大小、内存块大小是多少

在上述例子中,若系统是按字节寻址的,则

  • 段号占16位,因此在该系统中,每个进程最多有216 =64K个段
  • 页号占4位,因此每个段最多有24= 16页
  • 页内偏移量占12位,因此每个页面/每个内存块大小为212 = 4096= 4KB

  • “分段”对用户是可见的,程序员编程时需要显式地给出段号、段内地址。
  • 而将各段“分页”对用户是不可见的。系统会根据段内地址自动划分页号和页内偏移量。
  • 因此段页式管理的地址结构是二维的。

用户在编程的时候只需要给出(断号:端内地址),不需要给出(页号:页内偏移量),这个由编译器解决

(4) 段表、页表

  1. 每个段对应一个段表项,每个段表项由段号、页表长度、页表存放块号(页表起始地址)组成。每个段表项长度相等,段号是隐含的。
  2. 每个页面对应一个页表项,每个页表项由页号、页面存放的内存块号组成。每个页表项长度相等,页号是隐含的。

一个进程对应一个段表;但是可能对应多个页表

3.8 地址转换 & 内存保护 (非连续分配)

这个实际上应该在对应的存储管理下面的,但是为了体现本章的结构,还是单独拎出来了

3.8.1 基本分页存储管理地址转换

(1) 逻辑地址→物理地址

本小节仅仅是看计算方式,并不涉及到硬件实现

① 计算方式
  • 进程地址空间分页之后,操作系统该如何实现逻辑地址到物理地址的转换?

特点:虽然进程的各个页面是离散存放的,但是页面内部是连续存放

如果要访问逻辑地址A,则

  1. 确定逻辑地址A对应的“页号”P
  2. 找到p号页面在内存中的起始地址(需要查页表)
  3. 确定逻辑地址A的“页内偏移量”,

逻辑地址A对应的物理地址=p号页面在内存中的起始地址+页内偏移量w

可以分这三步走

子问题:如何确定一个逻辑地址对应的页号、页内偏移量?

  • 页号= 逻辑地址/页面长度(取除法的整数部分)
  • 页内偏移量=逻辑地址%页面长度

Eg:在某计算机系统中,页面大小是50B。某进程逻辑地址空间大小为200B,则逻辑地址110对应的页号、页内偏移量是多少?

如何计算:

  • 页号=110 /50=2
  • 页内偏移量=110% 50= 10
  • 逻辑地址可以拆分为(页号,页内偏移量)
  • 通过页号查询页表,可知页面在内存中的起始地址
  • 页面在内存中的起始地址+页内偏移量=实际的物理地址

补充:页面大小为2的整数幂

这里可以节省两批运算,共三次:除法、取模、乘法

  1. 首先是逻辑地址的转换,很快地能够实现 逻辑地址 → (页号、页面偏移量),而不用进行除法和取模操作了

在计算机内部,地址是用二进制表示的,如果页面大小刚好是2的整数幂则计算机硬件可以很快速的把逻辑地址拆分成(页号,页内偏移量)

  • 页号=逻辑地址/页面长度(取除法的整数部分)
  • 页内偏移量=逻辑地址%页面长度(取除法的余数部分)

假设某计算机用32个二进制位表示逻辑地址,页面大小为4KB= 212B= 4096B

页号 逻辑地址 二进制表示
0号页 0~4095 00000000000000000000000000000000~00000000000000000000111111111111
1号页 4096~8191 00000000000000000001000000000000~ 00000000000000000001111111111111
2号页 8192~12287 00000000000000000010000000000000~00000000000000000010111111111111
  • 也就是说,页面大小为4096B,那么 偏移量 = 后面的12位,页号 = 12位以前的位数

Eg:逻辑地址2,用二进制表示应该是00000000000000000000000000000010

  • 页号=2/4096=0= 00000000000000000000,页内偏移量=2%4096 =2=000000000010

Eg:逻辑地址4097,用二进制表示应该是00000000000000000001000000000001

  • 页号= 4097/4096=1= 00000000000000000001,页内偏移量=4097%4096=1= 00000000001

结论:如果每个页面大小为2*B,用二进制数表示逻辑地址,则末尾K位即为页内偏移量,其余部分就是页号

这样计算机就不用执行除法和取余运算了,直接取位数即可


  1. 得到页号之后,查询页表得到内存块号,能够很快地实现 (内存块号,页面偏移量) → 物理地址,不用实现乘法了

本来,根据页号可以查询页表,而页表中记录的只是内存块号,而不是内存块的起始地址 J号内存块的起始地址=J*内存块大小

假设物理地址也用32个二进制位表示,则由于内存块的大小=页面大小,因此:

  • 0号内存块的起始物理地址是00000000000000000000000000000000
  • 1号内存块的起始物理地址是00000000000000000001000000000000
  • 2号内存块的起始物理地址是00000000000000000010000000000000
  • 3号内存块的起始物理地址是00000000000000000011000000000000

假设通过查询页表得知1号页面存放的内存块号是9 (1001),则

  • 9号内存块的起始地址= 9*4096 = 00000000000000001001000000000000
  • 逻辑地址4097对应的物理地址=页面在内存中存放的起始地址+页内偏移量= (00000000000000001001000000000001)

结论:如果页面大小刚好是2的整数幂,则只需把页表中记录的物理块号拼接上页内偏移量就能得到对应的物理地址


总结:页面大小刚好是2的整数幂有什么好处?

  1. 逻辑地址的拆分更加迅速――如果每个页面大小为2KB,用二进制数表示逻辑地址,则末尾K位即为页内偏移量,其余部分就是页号。因此,如果让每个页面的大小为2的整数幂,计算机硬件就可以很方便地得出一个逻辑地址对应的页号和页内偏移量,而无需进行除法运算,从而提升了运行速度。
  2. 物理地址的计算更加迅速――根据逻辑地址得到页号,根据页号查询页表从而找到页面存放的内存块号,将二进制表示的内存块号和页内偏移量拼接起来,就可以得到最终的物理地址。

Tips:有些奇葩题目中页面大小有可能不是2的整数次幂,这种情况还是得用最原始的方法计

  • 页号=逻辑地址/页面长度(取除法的整数部分)
  • 页内偏移量=逻辑地址%页面长度((取除法的余数部分)
② 逻辑地址结构

分页存储管理的逻辑地址结构如下所示:

页号是进程分成的页的号码

  • 地址结构包含两个部分:前一部分为页号,后一部分为页内偏移量w。
  • 在上图所示的例子中,地址长度为32位,其中0~11位为“页内偏移量”,或称“页内地址”;12~31位为“页号”。
  • 如果有K位表示“页内偏移量”,则说明该系统中一个页面的大小是2K个内存单元
  • 如果有M位表示“页号”,则说明在该系统中,一个讲程最多允许有2M个页面

重要重要重要!!! 页面大小↔页内偏移量位数→逻辑地址结构


(2) 基本地址变换机构

基本地址变换机构 就是 在基本分页存储管理中,用于实现逻辑地址到物理地址转换的一组硬件机构

  • 基本地址变换机构可以借助进程的页表逻辑地址转换为物理地址
  • 通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的 起始地址F和页表长度M
  • 进程未执行时,页表的始址和页表长度放在进程控制块(PCB)中,当进程被调度时,操作系统内核会把它们放到页表寄存器中。

放到页表寄存器中,作为寄存器,读取速度更快

  • 注意:页面大小是2的整数幂
  • 设页面大小为L,逻辑地址A到物理地址E的变换过程如下:

  1. 将PCB中页表的起始地址和页表长度M存放到页表寄存器PTR中

  1. 然后流程如下

注意:

  1. 逻辑地址的结构可以分为(页号:页内偏移量)
  2. 页号:程序的进程分成若干个页面,页号就是对应页面的编号。页表可以理解为一个数组,页号就是查找的下表
  3. 判断页号是否越界就是判断是否越界了

下面用文字来说明:

  1. 计算页号Р和页内偏移量w(如果用十进制数手算,则P=A/L,W=A%L;但是在计算机实际运行时,逻辑地址结构是固定不变的,因此计算机硬件可以更快地得到二进制表示的页号、页内偏移量)

  2. 比较页号p和页表长度M,若P>M,则产生越界中断,否则继续执行。(注意:页号是从0开始的,而页表长度至少是1,因此P=M时也会越界)

  3. 页表中页号P对应的 页表项地址=页表起始地址F+页号P*页表项长度,取出该页表项内容b,即为内存块号。

    (注意区分页表项长度页表长度页面大小的区别。页表长度指的是这个页表中总共有几个页表项(如果将页表看做一个数组的话,页表长度就相当于数组的长度,也就是数组中有几个表项),即总共有几个页;页表项长度指的是每个页表项占多大的存储空间;页面大小指的是一个页面占多大的存储空间)

  4. 计算E=b*L+W,用得到的物理地址E去访存。(如果内存块号、页面偏移量是用二进制表示的,那么把二者拼接起来就是最终的物理地址了)

这里可以动手验证一下:假设页面大小L= 1KB,最终要访问的内存块号b=2,页内偏移量W= 1023。①尝试用E=b *L+W计算目标物理地址。②尝试把内存块号、页内偏移量用二进制表示,并把它们拼接起来得到物理地址。对比①②的结果是否一致


  • 例:若页面大小L为1K字节,页号2对应的内存块号b=8,将逻辑地址A=2500转换为物理地址E
  • 等价描述:某系统按字节寻址,逻辑地址结构中,页内偏移量占10位,页号2对应的内存块号b=8,将逻辑地址A=2500转换为物理地址E。

页面大小L=1K字节→页内偏移量占10位,1K = 210

  1. 计算页号、页内偏移量

页号P=A/L = 2500/1024= 2;页内偏移量w=A%L= 2500%1024= 452

  1. 根据题中条件可知,页号2没有越界,其存放的内存块号b= 8
  2. 物理地址E= b*L+w=8*1024+425 =8644

在分页存储管理(页式管理)的系统中,只要确定了每个页面的大小,逻辑地址结构就确定了。因此,页式管理中地址是一维的。即,只要给出一个逻辑地址,系统就可以自动地算出页号、页内偏移量两个部分,并不需要显式地告诉系统这个逻辑地址中,页内偏移量占多少位

因为页面大小是会提前给的,从而也就知道了页号占多少位,确定了逻辑地址结构

补充:再看页表项的大小

页表也是要存放在内存当中的,并且也是按照分页存储,有时候,一个进程的页表可能占据很多的页框,这里讨论的就是页表项的大小

每个页表项的长度是相同的,页号是“隐含”的
Eg:假设某系统物理内存大小为4GB,页面大小为4KB(同时也是页框的大小),内存总共会被分为232/212= 220个内存块,因此内存块号的范围应该是0~220-1
因此至少要20个二进制位才能表示这么多的内存块号,因此至少要3个字节才够(每个字节8个二进制位,3个字节共24个二进制位)

  • 各页表项会按顺序连续地存放在内存中(页表相当于数组,进程页表通常是装在连续的内存块中的,便于查询)
  • 如果该页表在内存中存放的起始地址为×,则M号页对应的页表项是存放在内存地址为x+3*M
  • 一个页面为4KB(=4096B),则每个页框可以存放4096/3 = 1365个页表项,但是这个页框会剩余4096 %3= 1B页内碎片
  • 因此,1365号页表项存放的地址为X+3*1365+1

这样查询起来是很不方便的,因为页表项的查询是按照数组地址查询的,但是查询第1365号的时候就会出问题

  • 如果每个页表项占4字节,则每个页框刚好可存放1024个页表项

结论:理论上,页表项长度为3B即可表示内存块号的范围,但是,为了方便页表的查询,常常会让一个页表项占更多的字节,使得每个页面恰好可以装得下整数个页表项。

在考试的时候按要求计算下3B即可,但是实际上需要的是4B


(3) 具有块表的地址变换机构

  • 上节学了,由于基本地址变换机构需要两次访存(访存的速度是比较慢的),引入快存来减少对内存的访问次数
① 什么是快表(TLB)
  • 快表,又称联想寄存器(TLB,translation lookaside buffer ),是一种访问速度比内存快很多的高速缓存(TLB不是内存!),用来存放最近访问的页表项的副本,可以加速地址变换的速度。
  • 与此对应,内存中的页表常称为慢表

TLB和普通cache的区别――TLB中只有页表项的副本,而普通Cache中可能会有其他各种数据的副本

这里先介绍以下存储器的概念

  • 那为什么不把整个页表都放在TLB中呢?因为太贵了
硬盘(1TB) 内存(8GB)

可以看到,尽管硬盘的容量比内存大很多,但是价格还是内存贵

② 快表地址变换
  • 假设:访问TLB只需1us访问,内存需要100 us

假设某进程执行过程中要依次访问(0,0)、(0,4)、(0,8)这几个逻辑地址,这三个的页号都一样,都是0

  1. 在第一次访问(0,0)的时候,先查快表,发现没有页号为0的项,然后查找慢表,找到页号为0,然后复制到快表中,并计算出内存的物理地址访问
  2. 第二次和第三次访问(0,4) (0,8)的时候,先查看快表,发现有页号为0的表象,直接计算出物理内存地址

用文字来说明

  1. CPU给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较。
  2. 如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表命中,则访问某个逻辑地址仅需一次访存即可
  3. 如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面内放的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表未命中,则访问某个逻辑地址需要两次访存(注意:在找到页表项后,应同时将其存入快表,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换)

快表对效率的提升:由于查询快表的速度比查询页表的速度快很多,因此只要快表命中,就可以节省很多时间。因为局部性原理,一般来说快表的命中率可以达到90%以上
例:某系统使用基本分页存储管理,并采用了具有快表的地址变换机构。访问一次快表耗时1us,访问一次内存耗时100us。若快表的命中率为90%,那么访问一个逻辑地址的平均耗时是多少?

  • (1+100)*0.9+(1+100+100)*0.1=111 us

  • 有的系统支持快表和慢表同时查找,如果是这样,平均耗时应该是(1+100)*0.9 +(100+100) *0.1=110.9 us

  • 若未采用快表机制,则访问一个逻辑地址需要100+100= 200us显然,引入快表机制后,访问一个逻辑地址的速度快多了。

先查快表、后查慢表(快表未命中) 快表、慢表同时查询(快表未命中)

上小节介绍的基本地址变换机构中,每次要访问一个逻辑地址,都需要查询内存中的页表。由于局部性原理,可能连续很多次查到的都是同一个页表项

③ 局部性原理
  • 时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环)
  • 空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的)

比如下面的情况

int i = 0;int a[100];
while (i < 100) {
    a[i] = i;
    i++;
}

这个程序执行时,会很频繁地访问10号页面、23号页面

按我的理解,局部性原理成立的原因就是因为程序中会出现很多的循环

基本 VS 有快表

地址变换过程 访问一个逻辑地址的访问次数
基本地址变换机构 ①算页号、页内偏移量
②检查页号合法性
③查页表,找到页面存放的内存块号
④根据内存块号与页内偏移量得到物理地址
⑤访问目标内存单元
两次访存
具有块表的地址变换机构 ①算页号、页内偏移量
②检查页号合法性
查快表。若命中,即可知道页面存放的内存块号,可直接进行⑤;若未命中则进行④
④查页表,找到页面存放的内存块号,并且将页表项复制到快表中
⑤根据内存块号与页内偏移量得到物理地址
⑥访问目标内存单元
快表命中,只需一次访存
快表未命中,需要两次访存

(4) 二级页表

  • 准确的说,这个也是内存的分配项目中的,只不过这次分配的对象特殊,分配的是页表
  • 前面说过,页表也是要占内存空间的,可能会占好多个页框的

① 单级页表存在的问题

  • 某计算机系统按字节寻址,支持32位的逻辑地址,采用分页存储管理,页面大小为4KB,页表项长度为4B
  • 4KB= 212B,因此页内地址要用12位表示,剩余20位表示页号。因此,该系统中用户进程最多有220页。相应的,一个进程的页表中,最多会有220= 1M = 1,048,576个页表项,所以一个页表最大需要 220 * 4B=222 B,共需要222/212 =210个页框存储该页表。(需要专门给进程分配2^10 =1024个连续的页框来存放它的页表
  • 根据页号查询页表的方法:K号页对应的页表项存放位置=页表始址+K*4
  • 要在所有的页表项都连续存放的基础上才能用这种方法找到页表项

页面的大小影响的点:

  1. 块号的长度
  2. 页号的长度,从而影响有多少个页,也就有多少页表项
  3. 每个页表项存储的长度是固定的,从而影响页表的大小
  4. 页表存储在内存中,页面大小 = 内存块大小
  5. 从而影响放页表放多少页框中

但是,根据局部性原理可知,很多时候,进程在一段时间内只需要访问某几个页面就可以正常运行了。因此没有必要让整个页表都常驻内存


总结,单级页表存在的问题:

  1. 问题一:页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框。(内存的利用率较低)
  2. 问题二:没有必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某几个特定的页面。

接下来就是解决这两个问题

② 解决页表连续存放问题
  • 思考:我们是如何解决进程在内存中必须连续存储的问题的?
  • 进程地址空间分页,并为其建立一张页表,记录各页面的存放位置,同样的思路也可用于解决“页表必须连续存放”的问题,把必须连续存放的页表再分页

这是一种思想,将能够连续存放的数据分页

  • 可将长长的页表进行分组,使每个内存块刚好可以放入一个分组(比如上个例子中,页面大小4KB,
  • 每个页表项4B,每个页面可存放1K个页表项,因此每1K个连续的页表项为一组每组刚好占一个内存块,再将各组离散地放到各个内存块中)
  • 另外,要为离散分配的页表再建立一张页表,称为页目录表(常这么称呼),或称外层页表,或称顶层页表

  1. 首先是页表进行分组,每1024个页表项为一组
  2. 每组页表块中,起始序号都是0开始的,但是块号是对应的,比如1#页表中,0开始的对应的是真正页表的1024号,但是块号是相同的

两级页表结构的逻辑地址结构如下

两级页表结构的逻辑地址结构

其中:

  • 10位一级页号刚好可以表示0~1023

如何实现地址转换

例:将逻辑地址(0000000000,0000000001,111111111111)转换为物理地址(用十进制表示)。

  1. 按照地址结构将逻辑地址拆分成三部分
  2. 从PCB中读出页目录表始址,再根据一级页号查页目录表,找到下一级页表在内存中的存放位置
  3. 根据二级页号查表,找到最终想访问的内存块号
  4. 结合页内偏移量得到物理地址

  • 最终要访问的内存块号为4
  • 该内存块的起始地址为4*4096= 16384
  • 页内偏移量为1023
  • 最终的物理地址为16384+1023 =17407
③ 解决页表常驻的问题

问题二:没有必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某几个特定的页面。

  • 可以在需要访问页面时才把页面调入内存(虚拟存储技术)。可以在页表项中增加一个标志位,用于表示该页面是否已经调入内存

④ 注意

需要注意的几个细节

  1. 若采用多级页表机制,则各级页表的大小不能超过一个页面

这里是多级页表,不仅仅是二级;如果是二级页表,那么第一级页表不能超过一个页面

例:某系统按字节编址,采用40位逻辑地址,页面大小为4KB(12为),页表项大小为4B,假设采用纯页式存储,则要采用()级页表,页内偏移量为()位?

解:

  • 页面大小=4KB =212B,按字节编址,因此页内偏移量为12位
  • 页号=40- 12= 28位
  • 页面大小= 212B,页表项大小= 4B,则每个页面可存放212/4 = 210个页表项(要计算出这个)
  • 因此各级页表最多包含2^10个页表项,需要10位二进制位才能映射到210个页表项
  • 因此每一级的页表对应页号应为10位总共28位的页号至少要分为三级

从逻辑地址的页号位入手,最多是10位,那就分成三段即可

  • 如果只分为两级页表,则一级页号占18位,也就是说页目录表中最多可能有218个页表项,显然,一个页面是放不下这么多页表项的。

  1. 两级页表的访存次数分析(假设没有快表机构)
    1. 第一次访存:访问内存中的页目录表
    2. 第二次访存:访问内存中的二级页表
    3. 第三次访存:访问目标内存单元

总之就是n级页表,访存次数就是n+1(没有快表机构)

内存空间利用率的上升的代价是要多一次访存,效率降低,这是时间复杂度换取空间复杂度的问题

3.8.2 基本分段存储管理地址转换

LOAD 1,[D] | <A>; //将分段D中A单元内的值读入寄存器1

经过编译程序编译后,形成等价的机器指令:“取出段号为2段内地址为1024的内存单元中的内容,放到寄存器1中”

机器指令中的逻辑地址用二进制表示:0000000000000010 0000000100000000(CPU执行指令时需要将逻辑地址变换为物理地址)

那么如何转换呢?整个过程和分页是类似的

  1. 首先该进程的PCB中存放着该进程对应的段表的起始地址和段表长度,进程运行时,将这两个数据存放到段表寄存器

  1. 然后逐步查询即可

  • 注意第④步:分页中,每个页框(页面)的大小是相同的,不需要检测;但是在分段中,段的长度是不同的,因此需要检查

分段 VS 分页

  1. 分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。

    分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址。

  • 由于页框的大小是固定的,因此给出逻辑地址即可自动解析得到页号和业内偏移
  • 但是分段,段的大小不是固定的,所以需要给出断号
  • 分页中,用户也知道地址是连续的;但是分段中,用户知道内存空间不是连续的

访问一个逻辑地址需要几次访存?

  • 分页(单级页表):第一次访存――查内存中的页表,第二次访存――访问目标内存单元。总共两次访存
  • 分段:第一次访存――查内存中的段表,第二次访存――访问目标内存单元。总共两次访存
  • 与分页系统类似,分段系统中也可以引入快表机构,将近期访问过的段表项放到快表中,这样可以少一次访问,加快地址变换速度

3.8.3 段页式存储管理

  1. 由逻辑地址得到段号、页号、页内偏移量
  2. 段号与段表寄存器中的段长度比较,检查是否越界
  3. 由段表始址、段号找到对应段表项
  4. 根据段表中记录的页表长度,检查页号是否越界
  5. 由段表中的页表地址、页号得到查询页表,找到相应页表项
  6. 由页面存放的内存块号、页内偏移量得到最终的物理地址
  7. 访问目标单元

访存次数

也可引入快表机构,用段号和页号作为查询快表的关键字。若快表命中则仅需一次访存

3.9 内存空间的扩充(虚拟内存)

  • 传统存储管理方式的基础上引入了交换技术、覆盖技术,使得内存利用率有所提升,并且能从逻辑上扩充内存容量。

3.9.1 虚拟内存的基本概念

(1) 传统存储管理方式的特征、缺点

  1. 一次性:作业必须一次性全部装入内存后才能开始运行。这会造成两个问题:
    1. 作业很大时,不能全部装入内存,导致大作业无法运行
    2. 当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度下降
  2. 驻留性:一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源,内存利用率不高

可用虚拟存储性解决这个问题


(2) 局部性原理

虚拟存储技术的提出基于局部性原理

  • 时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环)
  • 空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的,并且程序的指令也是顺序地在内存中存放的)
int i = 0;int a[100] ;
while (i < 100) {
    a[i] = i;
    i++;
}

(3) 虚拟内存的定义和特征

  • 基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存暂时用不到的部分留在外存,就可以让程序开始执行。
  • 在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序
  • 内存空间不够由操作系统负责将内存中暂时用不到的信息换出到外存
  • 在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,这就是虚拟内存

操作系统虚拟性的一个体现,实际的物理内存大小没有变,只是在逻辑上进行了变大。

虚拟内存有一下三个主要特征:

  1. 多次性:无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存。
  2. 对换性:在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入、换出。
  3. 虚拟性:从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量。

多次性对换性对应着传统存储方式的 一次性驻留性

(4) 虚拟内存技术的实现

虚拟内存技术,允许一个作业分多次调入内存。如果采用连续分配方式,会不方便实现

因此,虚拟内存的实现需要建立在离散分配的内存管理方式基础上

主要区别:

  • 在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。
  • 内存空间不够由操作系统负责将内存中暂时用不到的信息换出到外存

这要求操作系统提供两个功能

  • 操作系统要提供请求调页(或请求调段)功能:解决访问的信息不在内存时
  • 操作系统要提供页面置换(或段置换)的功能:解决内存空间不够的问题

3.9.2 请求分页管理方式

这本章讲解请求分页,请求分段是同理的

操作系统需要实现的功能:

  • 请求分页存储管理与基本分页存储管理的主要区别:
  • 在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序(请求调页功能)。
  • 内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存(页面置换功能)。

(1) 页表结构

  • 与基本分页管理相比,请求分页管理中,为了实现“请求调页”,操作系统需要知道每个页面是否已经调入内存;如果还没调入,那么也需要知道该页面在外存中存放的位置
  • 当内存空间不够时,要实现“页面置换”,操作系统需要通过某些指标来决定到底换出哪个页面:有的页面没有被修改过,就不用再浪费时间写回外存;有的页面修改过,就需要将外存中的旧数据覆盖,因此,操作系统也需要记录各个页面是否被修改的信息
基本分页存储管理的页表 请求分页存储管理的页表(添加了四个字段)

(2) 缺页中断机构

用于实现 缺页中断的硬件

  • 假设此时要访问逻辑地址=(页号,页内偏移量)= (0,1024)
  • 在请求分页系统中,每当要访问的页面不在内存时,便产生一个缺页中断,然后由操作系统的缺页中断处理程序处理中断
  • 此时缺页的进程阻塞,放入阻塞队列调页完成后再将其唤醒,放回就绪队列
  • 如果内存中有空闲块,则为进程分配一个空闲块,将所缺页面装入该块,并修改页表中相应的页表项

  • 如果内存中没有空闲块,则由页面置换算法选择一个页面淘汰,若该页面在内存期间被修改过,则要将其写回外存。未修改过的页面不用写回外存。


  • 缺页中断是因为当前执行的指令想要访问的目标页面未调入内存而产生的,因此属于内中断
  • 一条指令在执行期间,可能产生多次缺页中断。(如: copy A to B,即将逻辑地址A中的数据复制到逻辑地址B,而A、B属于不同的页面,则有可能产生两次中断)

这里来复习一下中断的种类

  • 内中断:信号的来源为CPU内部
    1. 故障、陷入:有意而为之的异常,如系统调用
    2. 故障:由错误条件引起的,可能被故障处理程序修复,如缺页中断
    3. 终止:不可恢复的致命错误造成的结果,终止处理程序不再将控制返回给引发终止的应用程序,如整数除0
  • 外中断:信号的来源为CPU外部

(3) 地址转换机构

请求分页存储管理与基本分页存储管理的主要区别:

  • 在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序(请求调页功能)。
  • 内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存(页面置换功能)。

步骤主要增加了以下几个

  1. 新增步骤1:请求调页(查到页表项时进行判断)
  2. 新增步骤2:页面置换(需要调入页面,但没有空闲内存块时进行
  3. 新增步骤3:需要修改请求页表中新增的表项

  • 在请求页表找到对应页表项后,若对应页面未调入内存,则产生缺页中断,之后由操作系统的缺页中断处理程序进行处理
  • 快表中有的页面一定是在内存中的。若某个页面被换出外存,则快表中的相应表项也要删除,否则可能访问错误的页面

下面用流程图来讲解

请求分页中的地址变换过程

注意事项如下

  1. ① 只有“写指令”才需要修改“修改位”。并且,一般来说只需修改快表中的数据,只有要将快表项删除时才需要写回内存中的慢表。这样可以减少访存次数。
  2. ② 和普通的中断处理一样,缺页中断处理依然需要保留CPU现场。
  3. ③ 需要用某种“页面置换算法”来决定一个换出页面
  4. ④ 换入/换出页面都需要启动慢速的I/O操作,可见,如果换入/换出太频繁,会有很大的开销。
  5. ⑤ 页面调入内存后,需要修改慢表,同时也需要将表项复制到快表中。

在具有快表机构的请求分页系统中,访问一个逻辑地址时,若发生缺页,则地址变换步骤是:
查快表(未命中)――查慢表(发现未调入内存)――调页(调入的页面对应的表项会直接加入快表)――查快表(命中)――访问目标内存单元

多理解,不用死记硬背

(4) 页面置换算法

这个解决的是,在缺页中断处理的时候,如果内存不够了,怎么置换页面

  • 算法的要求:页面的换入、换出需要磁盘I/O,会有较大的开销,因此好的页面置换算法应该追求更少的缺页率
① 最佳置换算法OPT

最佳置换算法(OPT,Optimal):每次选择淘汰的页面将是以后永不使用,或者在最长时间内不再被访问的页面,这样可以保证最低的缺页率

例:假设系统为某进程分配了三个内存块,并考虑到有一下页面号引用串(会依次访问这些页面):7,0,1,2,0,3,0,4,2,3,0,3,2,1,2,0,1,7,0,1

  • 前三次访问7 0 1,都发生了缺页,进行页面调度
  • 第四次访问2,也发生了缺页,要进行页面调度,但是由于内存块不够了,要进行页面置换

页面调度和页面置换不是一个概念

  • 置换规则:选择从0,1,7中淘汰一页。按最佳置换的规则,往后寻找,最后一个出现的页号就是要淘汰的页面
  • 从第四次访问后依次遍历,在7 0 1中发现了0 和 1停下,说明7是最后一个出现的页号
  • 淘汰7,置换为2

  • 访问2之后访问0,没有缺页
  • 然后访问3,缺页了,并且内存块不够,要进行页面置换
  • 往后找先找到了0和2,1是最后出现的,用3替换1

整个过程缺页中断发生了9次页面置换发生了6次

注意:缺页时未必发生页面置换。若还有可用的空闲内存块,就不用进行页面置换。

缺页率=9/20=45%

缺点:最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能知道接下来会访问到的是哪个页面。操作系统无法提前预判页面访问序列。因此,最佳置换算法是无法实现的

但是这种思想可以学习,并且提供了最低缺页率的参考

② 先进先出置换算法FIFO
  • 先进先出置换算法(FIFO):每次选择淘汰的页面是最早进入内存的页面
  • 实现方法:把调入内存的页面根据调入的先后顺序排成一个队列需要换出页面时选择队头页面即可。
  • 队列的最大长度取决于系统为进程分配了多少个内存块。

例:假设系统为某进程分配了三个内存块,并考虑到有以下页面号引用串 3,2,1,0, 3,2,4,3,2,1,0,4

分配三个内存块时,缺页次数:9次


例:假设系统为某进程分配了四个内存块,并考虑到有以下页面号引用串:3,2,1,0,3,2,4,3,2,1,0,4

比较:

  1. 分配四个内存块时,缺页次数:10次
  2. 分配三个内存块时,缺页次数:9次

这与想象中的情况不一致,应该是内存块越多,却也率越低啊

这种异常称为 Belady异常

Belady异常——当为进程分配的物理块数增大时,缺页次数不减反增的异常现象。
缺点:

  1. 只有FIFO算法会产生Belady异常。
  2. 另外,FIFO算法虽然实现简单,但是该算法与进程实际运行时的规律不适应,因为先进入的页面也有可能最经常被访问。因此,算法性能差
③ 最近最久未使用置换算法LRU
  • 最近最久未使用置换算法(LRU,least recently used):每次淘汰的页面是最近最久未使用的页面

  • 实现方法:赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间t

    需要淘汰一个页面时,选择现有页面中t值最大的,即最近最久未使用的页面

例:假设系统为某进程分配了四个内存块,并考虑到有以下页面号引用串:1,8,1,7,8,2,7,2,1,8,3,8,2,1,3,1,7,1,3,7

  • 在访问3的时候,依次往前找,依次找到了8 1 2,最后找到了7,说明7是金醉酒未使用的块,置换7
  • 在手动做题时,若需要淘汰页面,可以逆向检查此时在内存中的几个页面号。在逆向扫描过程中最后一个出现的页号就是要淘汰的页面。

缺点:

  • 该算法的实现需要专门的硬件支持,虽然算法性能好,但是实现困难,开销大
④ 时钟置换算法NRU

分析前几个算法

  • 最佳置换算法性能最好,但无法实现
  • 先进先出置换算法实现简单,但算法性能差
  • 最近最久未使用置换算法性能好,是最接近OPT算法性能的,但是实现起来需要专门的硬件支持,算法开销大。

时钟置换算法是一种性能和开销较均衡的算法,又称CLOCK算法,或最近未用算法(NRU,NotRecently Used)

简单的CLOCK算法实现方法:

  1. 为每个页面设置一个访问位,再将内存中的页面都通过链接指针链接成一个循环队列
  2. 当某页被访问时,其访问位置为1。
  3. 当需要淘汰一个页面时,只需检查页的访问位:如果是0,就选择该页换出;如果是1,则将它置为0,暂不换出,继续检查下一个页面,若第一轮扫描中所有页面都是1,则将这些页面的访问位依次置为0后,再进行第二轮扫描(第二轮扫描中一定会有访问位为0的页面,因此简单的CLOCK 算法选择一个淘汰页面最多会经过两轮扫描)

例:假设系统为某进程分配了五个内存块,并考虑到有以下页面号引用串:1,3,4,2,5,6,3,4,7(在访问6的时候会出现页面置换)

访问6号页,第一轮扫描
(1号页访问位为1,则置0,往后扫描)
3号页访问位为1,置0,往后扫描 4号页访问位为1,置0,往后扫描 2号页访问位为1,置0,往后扫描
5号页访问位为1,置0,往后扫描 开始第二轮扫描
1号页访问位为0,置换1为6号页,指针向后移
访问3、4号页,置3、4号页访问位为1
指针不移动
可以看到,指针并未移动
访问7号页,第一轮扫描
3号页访问位为1,置0,往后扫描
4号页也是1,置0,往后扫描 2号页访问位是1,置换,指针后移
⑤ 改进型的时钟置换算法
  • 简单的时钟置换算法仅考虑到一个页面最近是否被访问过。事实上,如果被淘汰的页面没有被修改过,就不需要执行I/o操作写回外存。只有被淘汰的页面被修改过时,才需要写回外存。
  • 因此,除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过。在其他条件都相同时,应优先淘汰没有修改过的页面,避免I/O操作。这就是改进型的时钟置换算法的思想。
  • 修改位=0,表示页面没有被修改过;修改位=1,表示页面被修改过。
  • 为方便讨论,用(访问位,修改位)的形式表示各页面状态。如(1,1)表示一个页面近期被访问过,且被修改过。

算法规则:将所有可能被置换的页面排成一个循环队列

  1. 第一轮:从当前位置开始扫描到第一个(0,0)的帧用于替换。本轮扫描不修改任何标志位(第一优先级:最近每访问,且没修改过的页面)
  2. 第二轮:若第一轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换。本轮将所有扫描过的帧访问位设为0(第二优先级:最近每访问,但修改过的页面)
  3. 第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0,0)的帧用于替换。本轮扫描不修改任何标志位(第三优先级:最近访问过,但没修改的页面)
  4. 第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换。(第四优先级,最近访问过,且修改过的页面)

由于第二轮已将所有帧的访问位设为0,因此经过第三轮、第四轮扫描一定会有一个帧被选中,因此改进型CLOCK置换算法选择一个淘汰页面最多会进行四轮扫描

下面依次进行举例

  1. 扫描一轮的例子(只找到(0,0))
初始状态 第一个页面为(0,1)往后扫描 第二个页面为(1,1)往后扫描 第三个页面是(1,0)往后扫描 第四个页面是(0,0)替换
  1. 扫描两轮的例子(第一列扫描(0,0)落空,第二轮扫描(0,1))
初始状态(已经到了第二轮扫描,看这个队列没有0,0) 扫描(1,1),访问位置为0,往后扫描 扫描到(0,1)置换
  1. 三轮扫描的例子(第一列扫描(0,0)落空,第二轮扫描(0,1)落空,但是所有的访问位都置为了(0))
    | 第一轮扫描 | 第二轮初始状态(没有0,0) | 第二轮扫描结束,没有(0,1)
    并且将所有访问位都置为0 | 第三轮扫描,找到0,0 |
    | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ |
    | | | | |

  2. 第四次扫描的例子(所有位都访问过,所有的都修改过,才会进入这种情况)

初始状态(所有页面都访问过,都修改过) 三轮访问过后,都成了01,找到初始的第一个

用自己的语言回顾一下

  1. (1,1)是最近访问过,并且修改过的,优先级最低
  2. 最开始找的是(0,0),也就是最近未访问过,并且未修改过的,这个替换的优先级最高
  3. 但是如果找不到,那就找(0,1),也就是最近未访问过,但是修改过的,并且置访问位为0
  4. 如果还找不断哦,就找(0,0),那就是最近未访问过,并且未修改过的(不可能找1,0,因为第二轮已经将访问位都置为1了)
  5. 如果还找不到,只剩下一种可能,最开始都是(1,1),也就是都访问过,并且都修改过的。找的是(0,1)

不会找访问位为1的,因为时钟置换算法优先级就是先找未访问的,如果改进之后找访问过的置换,就倒置了

比较
算法名称 算法规则 优缺点
OPT 优先淘汰最长时间内不会被访问的页面 优点:缺页率最小,性能最好
缺点:但无法实现
FIFO 优先淘汰最先进入内存的页面 优点:实现简单
缺点:但性能很差,可能出现Belady异常
LRU 优先淘汰最近最久没访问的页面 优点:性能很好
缺点:但需要硬件支持,算法开销大
CLOCK(NRU) 循环扫描各页面
第一轮淘汰访问位=0的,并将扫描过的页面访问位改为1。
若第一轮没选中,则进行第二轮扫描。
优点:实现简单,算法开销小
缺点:但未考虑页面是否被修改过。
改进CLOKC(改进NRU) 若用(访问位,修改位)的形式表述,则
第一轮:淘汰(0,0)
第二轮:淘汰(0,1),并将扫描过的页面访问位都置为0
第三轮:淘汰(0,0)
第四轮:淘汰(0,1)
算法开销较小,性能也不错

(5) 页面分配策略

① 驻留集
  • 驻留集:指请求分页存储管理中给进程分配的物理块的集合

  • 在采用了虚拟存储技术的系统中,驻留集大小一般小于进程的总大小

  • 若驻留集太小,会导致缺页频繁,系统要花大量的时间来处理缺页,实际用于进程推进的时间很少

  • 驻留集太大,又会导致多道程序并发度下降,资源利用率降低(CPU和IO并行运行的几率就会小很多)。

  • 所以应该选择一个合适的驻留集大小。

② 页面分配、置换策略
  • 页面分配策略:
    • 固定分配:操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不再改变。即,驻留集大小不变
    • 可变分配:先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少。即,驻留集大小可变
  • 页面置换策略:
    • 局部置换:发生缺页时只能选进程自己的物理块进行置换
    • 全局置换:可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程。

则有如下组合

局部置换 全局置换
固定分配 -
可变分配
  • 全局置换意味着一个进程拥有的物理块数量必然会改变,因此不可能是固定分配

  1. 固定分配局部置换:系统为每个进程分配一定数量的物理块,在整个运行期间都不改变。若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面

    这种策略的缺点是:很难在刚开始就确定应为每个进程分配多少个物理块才算合理。(采用这种策略的系统可以根据进程大小、优先级、或是根据程序员给出的参数来确定为一个进程分配的内存块数)

  2. 可变分配全局置换:刚开始会为每个进程分配一定数量的物理块。操作系统会保持一个空闲物理块队列。当某进程发生缺页时,从空闲物理块中取出一块分配给该进程;若己无空闲物理块,则可选择一个未锁定的页面换出外存,再将该物理块分配给缺页的进程。

    采用这种策略时,只要某进程发生缺页,都将获得新的物理块,仅当空闲物理块用完时,系统才选择一个未锁定的页面调出。

    被选择调出的页可能是系统中任何一个进程中的页,因此这个被选中的进程拥有的物理块会减少,缺页率会增加

拓展:系统会锁定一些页面,这些页面中的内容不能置换出外存(如:重要的内核数据可以设为“锁定”)

  1. 可变分配局部置换:刚开始会为每个进程分配一定数量的物理块。当某进程发生缺页时,只允许从该进程自己的物理块中选出一个进行换出外存。如果进程在运行中频繁地缺页,系统会为该进程多分配几个物理块,直至该进程缺页率趋势适当程度:反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块
  • 可变分配全局置换:只要缺页就给分配新物理块
  • 可变分配局部置换:要根据发生缺页的频率来动态地增加或减少进程的物理块
③ 调入页面的时机
  1. 预调页策略:根据局部性原理(主要指),一次调入若干个相邻的页面可能比一次调入一个页面更高效。但如果提前调入的页面中大多数都没被访问过,则又是低效的。因此可以预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测成功率只有50%左右。空间局部性

    这种策略主要用于进程的首次调入(运行前调入),由程序员指出应该先调入哪些部分

  2. 请求调页策略:进程在运行期间发现缺页时才将所缺页面调入内存(运行时调入)。由这种策略调入的页面一定会被访问到,但由于每次只能调入一页,而每次调页都要磁盘I/O操作,因此I/O开销较大。

④ 从何处调入页面

  1. 系统拥有足够的对换区空间:页面的调入、调出都是在内存与对换区之间进行,这样可以保证页面的调入、调出速度很快。

    在进程运行前,需将进程相关的数据从文件区复制到对换区

  1. 系统缺少足够的对换区空间:凡是不会被修改的数据都直接从文件区调入,由于这些页面不会被修改,因此换出时不必写回磁盘,下次需要时再从文件区调入即可。对于可能被修改的部分换出时需写回磁盘对换区,下次需要时再从对换区调入。

  1. UNIX方式:运行之前进程有关的数据全部放在文件区,故未使用过的页面,都可从文件区调入。

若被使用过的页面需要换出,则写回对换区,下次需要时从对换区调入。

⑤ 抖动(颠簸)现象
  • 刚刚换出的页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为称为抖动,或颠簸
  • 产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数分配给进程的物理块不够)
  • 为进程分配的物理块太少,会使进程发生抖动现象。为进程分配的物理块太多,又会降低系统整体的并发度降低某些资源的利用率
  • 为了研究为应该为每个进程分配多少个物理块,Denning提出了进程“工作集”的概念
⑥ 工作集

这些知识点都是拓展

  • 驻留集:指请求分页存储管理中 给进程分配的内存块的集合
  • 工作集:指在某段时间间隔里进程实际访问页面的集合

操作系统会根据“窗口尺寸”来算出工作集。例:

  • 某进程的页面访问序列如下,窗口尺寸为4,各时刻的工作集为?

  • 工作集大小可能小于窗口尺寸,实际应用中,操作系统可以统计进程的工作集大小,根据工作集大小给进程分配若干内存块。
  • 如:窗口尺寸为5,经过一段时间的监测发现某进程的工作集最大为3,那么说明该进程有很好的局部性,可以给这个进程分配3个以上的内存块即可满足进程的运行需要。
  • 一般来说,驻留集大小不能小于工作集大小,否则进程运行过程中将频繁缺页

拓展:基于局部性原理可知,进程在一段时间内访问的页面与不久之后会访问的页面是有相关性的。因此,可以根据进程近期访问的页面集合(工作集)来设计一种页面置换算法――选择一个不在工作集中的页面进行淘汰。


3.9.3 内存映射文件

内存映射文件――操作系统向上层程序员提供的功能系统调用)

  • 方便程序员访问文件数据
  • 方便多个进程共享同一个文件

C语言中某些对文件的操作中就用到了这些系统调用

传统的文件访问方式

文件与磁盘 文件分块 每块存放到磁盘的不同块中 进程需要时加载到进程中

传统的文件访问方式:

  • open系统调用——打开文件
  • seek系统调用——将读写指针移到某个位置
  • read系统调用——从读写指针所指位置读入若干数据(从磁盘读入内存)
  • write系统调用——将内存中的指定数据,写回磁盘(根据读写指针确定要写回什么位置)

操作的是磁盘

(1) 内存映射文件访问方式

读取2的时候发生缺页 读入 写入

内存映射文件的访问方式:

  • open系统调用——打开文件
  • mmap系统调用——将文件映射到进程的虚拟地址空间
  • 以访问内存的方式访问文件数据
  • 文件数据的读入、写出由操作系统自动完成
  • 进程关闭文件时,操作系统自动将文件被修改的数据写回磁盘

(2) 共享文件

  • 就是多个进程的虚拟地址都映射到一个物理内存当中,实现共享
  • 在物理内存中,一个文件对应同一份数据,当一个进程修改文件数据时,另一个进程可以立马“看到”

3.9.4 虚拟存储器性能影响因素?

这里没讲

3.9.5 地址翻译?

这里也没讲

posted @ 2023-08-16 16:59  Crispy·Candy  阅读(39)  评论(0编辑  收藏  举报