cache基础

cache是系统中的一块快速SRAM,价格高,但是访问速度快,可以减少CPU到main memory的latency。

cache中的术语有:

  1) Cache hits,表示可以在cache中,查找到相应地址的entry。

  2) Cache Miss,表示在cache中,找不到相应地址的entry。

  3) Snoop,cache不断监视transaction的地址线,来不间断的检查地址地址是否在cache中

  4) Snarf,从main memory中读出数据,同时更新cache中的旧值,称为Snarf

  5) Dirty Data,cache中的数据,是最新的,但是main memory中的数据还未更新,称cache中的数据为dirty。Stale Data类似。

 

arm架构中的cache架构是harvard结构的,分为data cache和inst cache。

  

  其中L1 cache,一般直接集成到core中,大小多是2-way,4-way,16KB和32KB,cache line一般是32byte或者64byte。

                    可以实现为VIPT或者PIPT。

    L2 cache,可以集成到core中,也可以单独作为一个external block,大小多是8-way以上,256KB,512KB,1M等,cache line也是32byte,64byte。

                    一般实现为PIPT。

 

cache的架构,分为read architecture,write policy,allocation policy。

  1) read分为,Look Aside和Look Through,

    Look Aside,main memory和cache都在同一时间,看到同一bus上的trans。

      优点:减少了cache miss下的 memory访问时间,

      缺点:在一个core访问main memory时,另一个core不能访问cache。

      

    Look Through,

  不管是哪一种的read architecture,cache miss之后,从main memory中得到的value都会被Snarf到cache中

  2) write policy,

    write-back时,将数据写到cache中,cache就像一个buffer,在evict一个新的cache entry时,才会将cache写会main memory。

      存在cache和main memory的consistency问题。需要进行cache maintenance操作(如cache line置换,mmu page置换修改等),

        主要分为cache invalid(舍弃cache中的值,将valid flag置零)和cache update操作(更新main memory的值为cache中的值)。

    write-Through时,读写性能要低一些,但是main memory中都是最新的value。不存在cache和main memory的一致性问题。  

  3) cache miss之后,是否allocate新的entry:

    read-allocated;读操作miss之后,先从main memory中读取数据给core,之后在进行cache line snarf

    write-allocated;在write miss之后,需要先进行burst read,进行cache line snarf,之后进行write back操作(一般与write back一起使用)。  

 

cache block会被分为三个functional blocks,Data RAM,TAG RAM,Cache Controller。每个cache 单元需要保存address,data,status等信息,所以cache真正的大小会比data ram大很多。 

  1) cache controller也会根据memory request是否是cacheable的来进行cache的寻址操作。

  2) tag cache,主要存储VA,PA的地址索引。平时所指的cache size并不包含tag ram的大小

  3) offset寻址具体的wordindex寻址某一个way,也就是某一个cache linetag主要做地址校对,最终选择tag匹配的那一个set

    在set-associate结构的cache中,main memory中所有index相同的地址,都只能放在对应的way中。

  

 

Cache的organization:

  1) Cache Page,main memory中被等大小的分为的piece,称为cache pages

    cache page的大小,不但与总的cache size有关,与cache的organization也有关

  2) Cache line,cache page中更小的单元,cache缓存的最小单位。

    

  cache的组织结构有三种,

    1) 分为full-Associative,全相联映射。没有cache page的概念,每个cache line直接对应到随机的某个memory line中。

      缺点是,TAG ram会比较大,索引会比较慢,一般应用在cache较小的地方,如tlb或者predict buffer中

      

    2) Direct-Map,直接映射,也称为1-way associative,main memory分为多个cache page,中的第n line,必须放在cache page的第n行。

      复杂度不高,但是,性能很差,常常需要evict其他的cache line,不够灵活

      

    3) N-way Set-Associative,组映射,比如2-way,4-way等,还有一个Set的概念,表示cache page的行数。

      每个组分为N份,N称为cache way。每个cache way内部的映射,就与direct mapping相同

      set到main memory的映射,随意,与full-associative相同

      所以一块main memory,首先随意映射一块地址到set中,然后每个set在平分为几个way,直接查找几个way即可。

        way中的line 映射,是一一对应的,不能够随意破坏行的顺序

      2 way的映射图:

      

      在使用N-Ways Set-Associative时,这是一种阵列的表现方式

        一个组里有N行,其实是N个set,但是set中的每一行与main memory分的cache page中的行数是一样的。

        cache首先被分为多个Set,S等于1时,也就是1个Set,这时,等同于Direct-Associative

                    N等于1时,也就是说1个Way,这时,等同于Full Mapped

       cache的大小等于cache_line_size * way_num * set_num

        

cache line的结构:

  1) data段存放cache line中的数据,大小通常为32byte或64byte,一个bus的wrap操作。

  2) status段,存放cache的状态,可以是MOESI等。

  3) Tag段,存放部分物理地址信息,可能包含虚拟地址信息,(VA的Cache索引可以与VA的地址转换同时进行)

    

 

PA地址的cache索引,最低位是word的寻址,之后是way(cache line)的寻址,再之后才是tag的寻址;

  

 

cache hier的问题:在不同的微架构中,L1与L2的关系可以是inclusive的,也可以是exclusive的,

  inclusive cache:相同的data可以存放在Both L1和L2中。

  exclusive cache:相同的data只能放在L1或者L2中,不能同时存在。

  目前一般使用inclusive cache类型,每次cache miss,可以从下一级的cache中寻找,load。而exclusive cache,每次cache miss,只能去main memory中load。

    但是exclusive cache比较节省cache size。

 

posted @ 2018-02-13 14:24  _9_8  阅读(2453)  评论(0编辑  收藏  举报