组成原理(三)存储器的层次结构

第三章 存储器的层次结构

3.1 存储器分类

  1. 按存储介质分类
    (1)半导体存储器:
            TTL,MOS,SSD。
            易失
    (2)磁表面存储器:
            磁头,载磁体
            非易失
    (3)磁芯存储器:
            硬磁材料,环状元件
            非易失
    (4)光盘存储器:
            激光,慈光
            非易失

  2. 按存取方式
    (1)存取时间与物理地址无关 (随机存取
            类比于数据结构中的线性表数组(取数组某个元素的时间和物理地址无关,只和index有关)
            (a)随机存储器:程序执行过程中可读可写
            (b)只读存储器:程序执行过程中只读
    (2)存取时间与物理地址有关(串行访问
            类比于数据结构中的链表
            (a)顺序存取存储器:磁带
            (b)直接存取存储器:磁盘(根据物理地址,直接移动磁头)

  3. 按在计算机中的作用分类
    (1)主存
            (a)RAM:操作系统被加载到RAM
                    SRAM:(Static Random Access Memory)静态随机存储器。常用制作二级缓存。
                                    不必刷新电路就能保存数据。但体积大,集成度低
                    DRAM:(Dynamic Random Access Memory)动态随机存取存储器。常用语制作系统内存
                                    DRAM用电容存储数据,需要定时充电,刷新电路,否则出处的数据丢失。集成度高
            (b)ROM:存储机器自检和引导程序,BIOS等程序
                    MROM:(Mask Read-Only Memory)掩模式只读存储器。MROM的内容在出厂前一次写入,之后不能更改
                    PROM:(Programmable Read-Only Memory)-可编程只读存储器。只能写入一次数据的只读存储器,写入错误只能更换存储芯片
                    EPROM:(Erasable Programmable Read Only Memory)可擦除可编程只读寄存器
                    EEPROM: (Electrically Erasable Programmable Read-Only Memory),电可擦可编程只读存储器。SSD
    (2)辅存
            磁盘,磁带,光盘

3.2 存储器的存储结构

  1. 存储结构综述
    (1)cpu只能和主存,cache进行数据交互,而不能直接获得辅存的数据
    (2)辅存的数据只能调入主存,不能直接进入缓存中。
    (3)辅存到主存的映射是由OS操作系统管理的。但是主存和辅存之间的一个映射关系被放到TLB中,TLB在cache中。
    (4)虚拟存储中的页表,段表,段页表被放到了主存中。cpu通过页表访问辅存时,发现缺页中断,就会先暂停程序的执行,先把数据调到内存

  2. 主存
    (1)主存的基本结构
    image.png-9.5kB
    (2)主存和CPU的联系
         image.png-5.4kB

  3. 主存中存储单元地址的分配
    (1)寻址的个数有2个因素:
           (a)地址线的个数:这是内存中总的可寻址字节数
           (b)一个地址所占用的字节数:表明了一个内存单元,占用多少个字节
    (2)\(\frac{内存可寻址的总字节数}{多少字节形成一个内存单元} = 可寻址数\)
    (3)eg:地址线24根,按字节寻址,可寻址\(2^24 = 16M\)
                   若字长为16位,按字寻址,可寻址8M个
                   若字长为32位,按字寻址,可寻址4M个

  4. 主存的指标
    (1)存储容量:存放二进制代码的总位数
    (2)存取速度:
           存取时间:存储器的访问时间(读出时间,写入时间)
           存取周期:连续两次独立的读写存储器操作之间,最小的时间间隔。用于读电路,写电路,地址电路清空一次
    (3)存储器带宽 (位/秒)

  5. 半导体存储片的基本结构
    image.png-12.5kB
    (1)地址线单向,数据线双向。
    (2)半导体芯片的容量由地址线和数据线一起决定。
           地址线和数据线的根数表示了内存实际的大小,而cpu理论上的最大寻址范围,由MAR和MDR的大小决定,为\(2^{MAR}*MDR\)

    地址线 数据线 芯片容量
    10根 4根 \(2^{10} * 4\)bit
    14根 1根 \(2^{14} * 1\)bit

(3)片选线的作用
       eg:用16K*1位的存储芯片组成64K*8位的存储器
       (a)因为半导体芯片是用存储矩阵设计的,存储矩阵的一行可以看成一层楼,这层楼有多个小房间。
                因此,先把8个16*1K的存储器放在一行,构成一层楼。再安排4层这样的楼层,构成64K*8的大楼
       (b)因为,一个地址线的地址过来后,先通过片选线(地址为的最高几位),选择楼层,
                然后用剩下的地址线低位地址,选择是楼层的那个房间
       (c)eg:当上例子中,地址线过来的数据是65535,转换成二进制是1111 1111。
                上面楼层有4层,所以地址线的前两位进行片选,也就是11,因此选择最高层。

  1. 半导体存储芯片的译码方式:
    (1)线选法:每个小存储单元占用一行,构成多行的线性结构
           每个小存储单元占用一行,构成多行的线性结构
           eg:16*1 bit的存储矩阵,占16行,因为要选择16行,所以要有4位片选线,链接所有的16个存储单元。
           这种设计导致电路设计异常复杂。
    (2)重合法 : 组合多个存储单元为一行
           通过组合多个存储单元为一行,来减少行数,达到减少片选线位数的目的,简化电路设计。但此时的存储矩阵,每行有多列存储单元,因此,用X地址译码器(确定行),用Y地址译码器(确定列),来选到具体的某个存储单元。
           eg:256 * 1bit重合片选法:把8个bit存储单元作为一行,设计32行即可。
                  因为有32行,因此X地址译码器有5位,因为有8列,因此Y地址译码器有3位
           image.png-12.2kB

3.3 半导体随机存储器

  1. SRAM
    (1)SRAM:静态随机存储器,不用刷新电路,使用双稳态管存储数据,不掉电情况下数据存在。
    (2)SRAM基本电路

  2. DRAM
    (1)DRAM:动态随机存储器,定时刷新电路,使用电容存储数据,不掉电情况下也需要定时对电容充电。
    (2)DRAM的存储矩阵是二维的,有行有列。所以要对行和列进行片选。行列片选的片选片进行复用,即同一个针脚,先选择行,后选择列。
    (3)动态RAM刷新 (刷新与行地址有关:默认数据能保持2ms)

(a)集中刷新(存取周期0.5\(\mu s\))
集中刷新是一次刷新存储矩阵中所有的存储单元。即,在数据能保持的这2ms内,分为能读写的周期时间,和不能读写的电路刷新时间。这个刷新时间,也称为"死区“。电路刷新,一次刷新存储矩阵的1行,这个刷新一行的时间等于一个存取周期
eg:当存储矩阵为128*128,存取周期为0.5\(\mu s\)时,刷新时间=128 * 0.5 = 64\(\mu s\),即死区时间占64\(\mu s\),其死区时间率为\(\frac{64}{2000} = 3.2%\)
(b)分散刷新(存取周期为1\(\mu s\)
分散刷新是,在每次读写数据后,立刻刷新改行存储矩阵。即一个存取周期=读写时间+电路刷新时间。而读写时间等于电路刷新时间,所以,1个存取周期等于2个读写时间,为2*0.5=1\(\mu s\)
分散刷新不存在死区,但是使得一次存取时间变成原来的2倍
(c)异步刷新
异步刷新不在一次刷新所有行,也不再每次读写后立刻刷新,而是保证在2ms内,每一行得到刷新即可。所以其死区时间为0.5\(\mu s\)。如果将刷新安排在指令译码阶段,则不会有死区时间(指令译码阶段,不产生cpu去内存的io)
eg:对于128*128的存储矩阵,把2ms平均到每行为2/128=15.6\(\mu s\),即每隔15.6\(\mu s\)顺着存储矩阵的行编号,向下个编号刷新。

3.4 主存与CPU的连接

  1. 存储容量的扩展
    (1)位扩展
         用2片1K*4位存储芯片组成1K*8位存储器
         位扩展没有增加房间号,只是房间里面多住人了。即地址线不变,增加数据线,其他没变化
    (2)字扩展(增加存储字的数量)
    用1K*8位存储芯片组成2K*8位的存储器:原来的1K字即10根地址线,变成现在的2K即11根地址线,多出来的1根地址线用来进行片选。
    image.png-118.6kB
    (3)字位扩展
    用8片1K*4位的存储芯片组成4K*8位的存储器。即地址线先扩展4位成\(D_0到D_7\),然后地址线由原来的10根扩展成12根,新增的2根进行限片选,一次选择2个芯片。此时的片选线变成片选译码器
    image.png-286.7kB

  2. 存储器与CPU的连接
    (1)地址线的连接:先连接芯片固有的
    (2)数据线的连接:先连接芯片固有的
    (3)读写控制线的连接:每个芯片都要连接,包括增加的
    (4)片选线的连接:用增加的地址线进行片选线
    (5)芯片选择:选择芯片数量组少的解决方案
    eg:设CPU有16根地址线,8根数据线。现有以下几种存储芯片:1K*4位RAM,4K*8位RAM,8K*8位RAM,
    2K*8位ROM,4K*8位ROM,8K*8位ROM,和74138译码器。请画出CPU和存储器的连接图。要求:
    主存地质分配如下:6000H67FFH为系统程序区。6800H6BFFH为用户程序区。
    (1) 写出地址对应的二进制码
    image.png-22.2kB
    所谓系统存储区,指的是单片机中存储系统程序的那部分芯片,通常被烧制在ROM里,而用户程序是单片机中跑的程序,运行在RAM中。如上图所示,应该选择1片2K*8位ROM,和2片1K*4位RAM。
    (2)分配地址线:
         \(A_{0}~A_{10}\)地址线连接ROM,
         \(A_{0}~A_{9}\)地址线连接RAM
    (3)确定片选片信号
         如上图,只有1片ROM,而且2片RAM是位扩展,不会引起片选,所以只要区分RAM和ROM即可。如图发现,\(A_{12},A_{11},A_{10}\)即可区分ROM和RAM.因此这3位地址线成为片选线。

3.5 双口RAM和多模块存储器 -- 提高访存速度的手段

  1. 单体多字系统
    (1)把原来的单字长寄存器改变为多字长的寄存器,使得内存一次可以读出多个字。从而增加访存速度
    (2)这种设计实际上不存在,因为多字长在跳转指令时会产生顺序读取的数据无效,降低效率

  2. 双口RAM
    (1)双口RAM是含有两套相互独立的读写控制电路而得名。同时进行2次独立的读写操作,所以会增加存储器
    (2)当两套读写电路同时操作同一块内存地址时,会产生写冲突。因此,增加一个busy标志(低电平)

  3. 多体并行 - 高位交叉,顺序编址
    (1)多体并行是编址方式的一种转变。存储矩阵有多个行,每个行成为一个体。
    (2)高位交叉编址的意思是:用地址的高位表示是哪个体。所以4体高位交叉编址就变成了高位分别为00,01,10,11$,低位作为体内地址。因此形成顺序编址。
    image.png-7.6kB

  4. 多体并行 - 低位交叉编址,各体轮流编址
    (1)低位为体号,高位为体内地址。正好使得连续地址分布在不同的体
    image.png-7.8kB
    (2)低位交叉编制,使得读取连续地址的数据时,采用流水线方式:
         流水线为2步,分为通知体传输和体传输时间。
         通知体的时间为cpu发出信号到体的时间,即总线传输时间。体传输时间为体读取数据的时间。
         为了使流水线可以对齐,要求1个存取周期内,正好通知到所有体,所以存取周期为体数的整数倍。
         eg:设4体交叉存储器,存取周期为T,总线传输周期为\(\tau\),则为实现流水线存取方式,应满足\(T = 4\tau\)。因为每个体的存取周期为n\(\tau\),最后一个体用一个\(\tau\)的时间在T内,所以总的传输时间为T+(n-1)\(\tau\)
    image.png-6.2kB

  5. 高性能存储芯片
    (1)SDRAM(同步DRAM):系统时钟控制下进行读出和写入,CPU无需等待
    (2)RDRAM:由Rambus开发,解决存储器带宽问题
    (3)带cache的DRAM:在DRAM的芯片中集成了一个由SRAM组成的cache

3.6 高速缓冲存储器Cache

  1. cache工作原理
    (1)主存单位称为块,cache称为行,实质是一个东西
    (2)CPU读主存时,把地址同时送给cache和主存,cache通过地址查看此字是否在cache中,若在则立即传送给cpu。
    若不在,则用主存读周期把此字从主存中读出送到cpu,与此同时,把含有此字的整个数据块从主存读出送到cache的行中

  2. Cache层次结构
    (1)cache是分层次的:L1 cache,L2 cache,L3 cache。
    (2)寄存器取值时,先从L1取,去不到则向下层的L2 cache取,L2再取不到,去内存取。
    (3)每个核心享有独自的L1 cache和L2 cache,所有核心共享L3 cache。 L1,L2cache是片内cache
    (4)L1 cache分为L1P和L1D,分开存储指令和数据。使指令和数据可以同时读取
    image_1atae331m3tm1opg19n51ng91hrm9.png-54.5kB

  3. cache与内存的映射关系(读方式)
    (1)全关联:full associative cache
         将内存也看成line的方式存储,全关联是指,内存的任意一个line可以映射到cache中的任意一个line。
         全相连映射的主存地址分为2部分:主存块号|字块内地址;cache标记位为主存地址除了字块内地址的全部高位。
         这就需要一个表,记录主存块号到cache行号的映射
         这种方式,在查找内存是否在cache中时,要查找所有的tag。 而且查表的比较器很难实现
    (2)直接映射:Direct Associated Cache
         将内存按照cache大小划分为n个Page,内存中Page的line0对应cache的line0。因此直接映射下,cache标志位标志的是内存的page号。
         另一种理解方式:主存中的几个特定行,映射到cache的一个特定行。多对一的关系。这种关系满足公式 i = j mod c
         其中,i:cache行的行号。j:主存块的块号。c:cache的行数。标志位=j/c向下取整
         直接映射相当于多体高位交叉顺序编址。体相当于整个cache,主存包含多个体。采用顺序编址,使得主存地质分成三部分: 体号(第几个cache)|cache块号|块内地质。所以cache把主存中的最高几位(cache体号)作为标记位
         当恰好访问的几个主存地质,映射到了相同的cache行,就会产生抖动
    (3)组相联:Set Associated Cache
         i. 组相联映射把cache划分为过个way,每个way的结构一样。内存按照way的大小划分Page,page间采用直接映射方式,page内采用全相联映射方式 。
    即:page号到组号的映射关系是多对一且固定的。
    u为cache的way个数,v为way中的行数 。 v路组相联:把几行作为一个way
    这种方式,把主存地址分为3部分:主存自块标记|组内地址(不用有way号,因为是映射出来的)|字内地址。分别对应cache的标记位,way内的行号
         ii. c64+DSP的配置中,L1P使用1个way,L1D使用2个way,L2不区分程序和数据,使用4个cache way

eg:假设主存的容量为512K*16位,cache容量为4096*16位,块长为4个16位字,访存地址为字地址。
(1)直接映射下,设计主存地址格式:
解:直接映射是主存的每块映射到cache的固定块。所以,主存地址应包含cache块号的标记。
因为按字编址,每个字为16位,所以主存地址容量为\(2^{19}\),cache容量为\(2^{12}\)。所以主存地址为19位,cache地址为12位。因为每块4个字,所以快内地质占2位。cache块号占10位,主存地址的剩余7位为标记位
     tag为(7)  |  cache块号(10)  |  cache快内地址(2)
(2)全相连方式下,主存地址的设计
解:全相联方式下,主存任意一块可以映射到cache任意一块,所以主存地址脂粉味2部分,tag和快内地址。
快内地址占2位,tag占17位
(3)二路组相联模式下,主存地址的设计
二路组相联模式下,每一个分组有2行,快内地址占1位,所以有\(2^{12}/2/2=2^{9}\)个分组,所以组号占9位。剩下tag位占19-9-2=8位

二. cache的写方式

  1. 写通(Write through)
    cpu在更新cache的内容时,会立刻更新对应的内存的值
    写直通要同时写主存和cache,造成速度降低

  2. 写回(Write Back),line增加dirty
    i. 在cache line的内容需要被置换时,先将修改过的值写会内存,再置换成新的line值
    ii. 如何知道line被修改过呢,需要在line中增加一个dirty标志位,dirty为1,表示内存的内容被修改过,置换时需要写回内存
    iii.LiP缓存程序,程序不会被修改,所以L1P没有dirty标志,而L1D缓存数据会被更改,所以有dirty标志位
    image_1atae6ccsve8dqedqt1epb17ifm.png-6.3kB

三. cache一致性

  1. 多核cpu下的cache一致性问题
    多核处理器中运行着不同的线程,当1个核心中的1个线程使修改一个内存地址的数据时,由于cache的写回策略,导致该核心中cache line的数据还没写回到对应内存。当另一个核心的进程也需要操作这个内存地址的数据时,从内存地址中读取的数据就是旧值。

  2. cache一致性协议的2个硬件操作
    (1)Write Invalidation:置无效
    当一个核心的cache line更新了数据时,如果发现其他核心的cache line也存在对应内存地址数据的拷贝,则把其他核心的cache line的valid标志位置为无效
    (2)Write Update:数据更新
    当一个核心的cache line更新了数据时,如果发现其他核心的cache line也存在对应内存地址数据的拷贝,则更新其他核心的cache数据
    Write Update设计复杂,会产生大量的数据更新操作,通常使用Write Invalidation

  3. cache一致性协议(Write Invalidation的实现:MESI)
    (1)MESI协议包含4种状态
         M:modify,该cache line数据有效,被更新过,和内存中不一致,数据只存在本cache中
         E:Exlusive,该cache line数据有效,且和内存中一致,数据只存在本cache中
         S:shared,该cache line数据有效,数据和内存中一致,数据存在多个核心的cache line中
         I:invalid,此cache line数据无效
    (2)cache snoop(窥探)
         MESI协议中,每个core的cache控制器不仅可以知道自己cache的读写情况,同时也窥探其它core的cache的读写操作。每个cache line的数据状态在本core和其它core的读写状态之间进行变换。
    (3)MESI的读写行为
         i. Local Read:本core读本cache
         ii. Local Write:本core写本cache
         iii. Remote Read:其它core读其它cache
         V. Remote Write:其它core写其它cache
    (4)目录式的一致性协议
         i. MESI协议需要snoop窥探,电路实现简单,但是cache line的沟通成本很高
         ii. 有一种集中管理的目录式协议,将cache共享信息集中在一起,只有共享的cache line才会交互数据,减少沟通成本

3.7 虚拟存储器

一. 页式虚拟存储

  1. 概念
    (1)程序员在比实际主存大得多的逻辑地址空间中编写程序
    (2)程序执行时,把当前需要的程序段和数据块掉入主存,其他暂不使用的放在磁盘上
    (3)执行指令时,通过硬件将逻辑地址转化为物理地址。虚拟地址高位为虚页号,低位为页内偏移地址
    (4)当程序发生数据访问或程序访问失效(缺页时),由操作系统把信息从磁盘调入主存中

  2. 分页
    (1)基本思想:
    内存被分成固定长度且长度较小的存储块(页框,实页,物理页)
    每个进程也被划分为固定长度的程序块(页,虚页,逻辑页)
    通过页表,实现逻辑地址想物理地址的转化
    (2)逻辑地址
    程序中指令所使用的地址(进程所在地址空间)
    (3)物理地址
    存放指令或数据的实际内存地址

  3. “主存-磁盘”层次
    (1)与“cache-主存”层次相比,页大小远比cache的行大小要大(windows中的页位4k)
    (2)采用全相联映射方式:磁盘中的任意一个页能用射到内存中的任意一个页
    因为缺页导致中断时,操作系统从磁盘拿数据通常要耗费几百万个时钟周期。增大页大小,可以减少缺页中断
    (3)为什么让软件处理“缺页”
    因为访问磁盘需要好粉几百万个时钟周期,硬件即使能立刻把地址打给磁盘,磁盘也不能立即响应
    (4)为什么地址转换用硬件实现
    硬件实现地址转换可以加快指令的执行速度
    (5)为什么页写会策略采用write back
    避免频繁的慢速磁盘访问

  4. 页表结构
    页表的首地址放在基址寄存器。采用基址寻址方式
    每个页表项前面有一个虚页号:从0开始递增的序号。页表项又分为几个结构:
    (1)装入位:该页是否在内存中
    (2)修改位:该也在内存中是否被修改
    (3)替换控制位:用于clock算法
    (4)其他
    (5)实页号(8进制)

  5. TLB
    (1)一次磁盘引用需要访问几次主存?2次,一次查页表,一次查物理地址。于是,把经常查的页表放到cache中。这种在cache页表项组成的页表称为TLB(Translation Lookside Buffer)
    (2)TLB的页表结构:tag + 主存中的页表项
    当采用全相连映射时,tag为页表项前面的虚页号。需要把tag和虚页号一一比较
    当采用组相联映射时,tag被分为tag+index,虚页号的高位为tag,虚页号的低位为index,做组内索引(属于组内第几行)

二. 段式虚拟存储

  1. 段式存储是根据程序逻辑,给程序分段。使得每段大小不同。这种虚拟地址划分方法适合程序设计
  2. 段式存储的虚拟地址由段号和段内偏移地址组成。段式虚拟存储器到物理地址的映射通过段表实现
  3. 段式虚拟存储会造成空页

三. 段页式虚拟存储

  1. 段页式虚拟存储,先把程序按照逻辑分成段,再把每段分成固定大小的页。
  2. 程序对主存的调入调出是按照页面进行的;但他有可以根据段实现共享和保护
  3. 缺点是段页式虚拟地址转换成物理地址需要查询2个表:段表和页表。段表找到相应页表的位置,页表找到想也页的位置
  4. 段页式细腻地址的结构可以为以下形式:
    程序地址: 用户号(进程pid) | 段号 | 页号 | 页内偏移地址

eg:
(1)某计算机的cache块工16块,采用二路组相联映射方式,每个主存块大小为32字节,按照字节编制。则主存129号单元的主存块硬装如刀cache的组号是:(C)A、0       B、2       C、4       D、6
解:二路组相联,所以每组2块,共有16/2=8组,所以组号占3位。
      每块32字节,所以块内地址占5位。
      129转化为二进制:1000 0001:前3位为组号,100:=4

(2)假设用若干个2K*4位的芯片组成一个8K*8位的存储器,则地址0B1FH所在芯片的最小地址为
解:用2片组成一行,共4行,所以片选地址占2位。片内地址有2k=\(2^{11}\),所以占11位
      0B1FH:000|0 1|011 0001 1111 这三段为前缀,片选地址,片内地址。
      该片芯片的最小地址是片内地址全0:000|0 1|000 0000 0000 = 0800H

(3)某计算机的主存地址空间大小为256MB,按字节编址,指令cache和数据cache分离,均有8个cache行,每行大小为64B,数据cache采用直接映射方式,现有两个程序A,B对数组int a[256][256]进行遍历,程序A按行遍历,程序B按列遍历。假定int类型数据用32位补码表示,数组a按行优先方式存储,其地址为320(十进制)。
问:(1) 若不考虑cache一致性维护和替换算法所需的控制位,则数据cache的总容量占多少?
      (2) 数组元素a0和a[1][1]各自所在主存块对应的cache行号分别为多少(cache从0行开始)?
      (3)程序A和B的数据访问命中率各自为多少?哪个程序的执行时间更短?

解:(1) 因为cache的总容量是cache每行的数据存储大小+tag位+数据是否有效位+其他一致性控制位。
          主存地址空间256MB,占28位。直接映射方式,8行,行号占3位。每行64B,所以块内地址占6位,因此,tag占28-3-6=19位
          每行有一个数据有效位。因此,cache共(19+1+64*8)*8 = 532字节
      (2) 因为int类型占32位,所以一个int占4B。a0 = 320 + 31*4 = 444 a1 = 320 + 4*(256+1) = 1348。
          块内地址占6位,直接映射下行号占3位,因此444 = 110 | 111100,所以行号为6
          1348 = 10 | 101 | 000100,所以行号为5
      (3) 因为1行cache占64B,每个int数占4B,所以一行有16个数。第一个数会因cache缺失而不命中,然后调入cache。,使得后面的15个int访问全部命中。所以命中率为\(\frac{15}{16}\) 对于程序B,每次调入16个数,小于数组每行的128个元素,因此每次都不会命中,命中率为0

posted @ 2016-10-08 11:45  moon_lord  阅读(12515)  评论(0编辑  收藏  举报