高效访问内存

1、影响内存访问速度的因素

1).内存带宽:每秒读写内存的数据量,由硬件配置决定。
2).CACHE高速缓冲:CPU与内存之间的缓冲器,当命中率比较高时能大大提供内存平均访问速度。
3).TLB转换旁视缓冲:系统虚拟地址向物理地址转换的高速查表机制,转换速度比普通转换机制要快。

我们能够优化的只有第2点和第3点。

由于CACHE的小容量与SMP的同步竞争,如何最大限度的利用高速缓冲就是我们的明确优化突破口(以常用的数据结构体为例):
1.压缩结构体大小:针对CACHE的小容量。
2.对结构体进行对齐:针对内存地址读写特性与SMP上CACHE的同步竞争。
3.申请地址连续的内存空间:针对TLB的小容量和CACHE命中。
4.其它优化:综合考虑多种因素

2、CPU 如何读写数据的?

 

 

 

可以看到,一个 CPU 里通常会有多个 CPU 核心,比如上图中的 1 号和 2 号 CPU 核心,并且每个 CPU 核心都有自己的 L1 Cache 和 L2 Cache,

而 L1 Cache 通常分为 dCache(数据缓存) 和 iCache(指令缓存),L3 Cache 则是多个核心共享的,这就是 CPU 典型的缓存层次。

上面提到的都是 CPU 内部的 Cache,放眼外部的话,还会有内存和硬盘,这些存储设备共同构成了金字塔存储层次。如下图所示:

 

 

 从上图也可以看到,从上往下,存储设备的容量会越大,而访问速度会越慢。至于每个存储设备的访问延时,你可以看下图的表格:

你可以看到, CPU 访问 L1 Cache 速度比访问内存快 100 倍,这就是为什么 CPU 里会有 L1~L3 Cache 的原因,

目的就是把 Cache 作为 CPU 与内存之间的缓存层,以减少对内存的访问频率。

CPU 从内存中读取数据到 Cache 的时候,并不是一个字节一个字节读取,而是一块一块的方式来读取数据的,这一块一块的数据被称为 CPU Line(缓存行cache line)

所以 CPU Line 是 CPU 从内存读取数据到 Cache 的单位。

至于 CPU Line 大小,在 Linux 系统可以用下面的方式查看到,你可以看我服务器的 L1 Cache Line 大小是 64 字节,也就意味着 L1 Cache 一次载入数据的大小是 64 字节。

Cache是由很多个 Cache line (CPU Line)组成的。Cache line 是 cache 和 RAM 交换数据的最小单位,通常为 64 Byte。

当 CPU 把内存的数据载入 cache 时,会把临近的共 64 Byte 的数据一同放入同一个Cache line,因为空间局部性:临近的数据在将来被访问的可能性大。

3、伪共享False Sharing

当多线程修改互相独立的变量时,如果这些变量共享同一个缓存行,就会无意中影响彼此的性能,这就是伪共享。

缓存行上的写竞争是运行在SMP系统中并行线程实现可伸缩性最重要的限制因素。

有人将伪共享描述成无声的性能杀手,因为从代码中很难看清楚是否会出现伪共享。

对于多CPU的计算机,例如:

1)、CPU1 读取了一个字节,以及它和它相邻的字节被读入 CPU1 的高速缓存。

2)、CPU2 做了上面同样的工作。这样 CPU1 , CPU2 的高速缓存拥有同样的数据。

3)、CPU1 修改了那个字节,被修改后,那个字节被放回 CPU1 的高速缓存行。但是该信息并没有被写入RAM 。

4)、CPU2 访问该字节,但由于 CPU1 并未将数据写入 RAM ,导致了数据不同步。

        当一个 CPU 修改高速缓存行中的字节时,计算机中的其它 CPU会被通知,它们的高速缓存将视为无效。

于是,在上面的情况下, CPU2 发现自己的高速缓存中数据已无效, CPU1 将立即把自己的数据写回 RAM ,然后 CPU2 重新读取该数据。

4、Cache Line伪共享解决方案

处理伪共享的两种方式:

1)字节填充:增大元素的间隔,使得不同线程存取的元素位于不同的cache line上,典型的空间换时间(64字节对齐)。

2)在每个线程中创建对应元素的本地拷贝,结束后再写回全局数组。

既然一个Cache Line存放64字节的数据,只要在a和b变量之间填充7个无意义的Long变量,占满64字节,

这样a和b就无法被分配进同一个Cache Line中,线程之间修改数据互不影响。

5、具体优化方法

1)对结构体字段进行合理的排列

struct box_a
{
     char a;
     short b;
     int c; 
     char d;
};  //  12字节


struct box_b
{
     char a;
     char d;
     short b;
     int c; 
}; // 8字节

2)利用位域

实际中,有些结构体字段并不需要那么大的存储空间,比如表示真假标记的flag字段只取两个值之一,0或1,此时用1个bit位即可,如果使用int类型的单一字段就大大的浪费了空间。

struct tcphdr {
     __be16  source;
     __be16  dest;
     __be32  seq;
     __be32  ack_seq;
#if defined(__LITTLE_ENDIAN_BITFIELD)
     __u16   res1:4,
         doff:4,
         fin:1,
         syn:1,
         rst:1,
         psh:1,
         ack:1,
         urg:1,
         ece:1,
         cwr:1;
#elif defined(__BIG_ENDIAN_BITFIELD)
     __u16   doff:4,
         res1:4,
         cwr:1,
         ece:1,
         urg:1,
         ack:1,
         psh:1,
         rst:1,
         syn:1,
         fin:1;
#else
#error  "Adjust your <asm/byteorder.h> defines"
#endif 
     __be16  window;
     __sum16 check;
     __be16  urg_ptr;
};

3)对较小结构体进行机器字对齐

对于现代计算机硬件来说,内存只能通过特定的对齐地址(比如按照机器字)进行访问。

举个例子来说,比如在64位的机器上,不管我们是要读取第0个字节还是要读取第1个字节,在硬件上传输的信号都是一样的。

因为它都会把地址0到地址7,这8个字节全部读到CPU,只是当我们是需要读取第0个字节时,丢掉后面7个字节,当我们是需要读取第1个字节,丢掉第1个和后面6个字节。
当我们要读取的字节刚好落在两个机器字内时,就出现两次访问内存的情况,同时通过一些逻辑计算才能得到最终的结果。
因此,为了更好的提升性能,我们须尽量将结构体做到机器字(或倍数)对齐,而结构体中一些频繁访问的字段也尽量安排在机器字对齐的位置。

struct box_c
{
     char a;
     char d;
     short b;
     int c; 
     int e; 
};// 12字节

struct box_d
{
     char a;
     char d;
     short b;
     int c; 
     int e; 
     char padding[4];
};// 16字节

box_d结构体,通过增加一个填充字段padding将结构体大小增加到16字节,从而与机器字倍数对齐,

这在我们申请连续的box_d结构体数组时,仍能保证数组内的每一个结构体都与机器字倍数对齐。

4)对较大结构体进行CACHE LINE对齐

CACHE与内存交换的最小单位为CACHE LINE,一个CACHE LINE大小以64字节为例。

当我们的结构体大小没有与64字节对齐时,一个结构体可能就要占用比原本需要更多的CACHE LINE。

比如,把一个内存中没有64字节长的结构体缓存到CACHE时,即使该结构体本身长度或许没有还没有64字节,

但由于其前后搭占在两条CACHE LINE上,那么对其进行淘汰时就会淘汰出去两条CACHE LINE。
这还不是最严重的问题,非CACHE LINE对齐结构体在SMP机器上容易引发名为错误共享(伪共享)的CACHE问题。

比如,结构体T1和T2都没做CACHE LINE对齐,如果它们(T1后半部和T2前半部)在SMP机器上合占了同一条CACHE,

如果CPU 0对结构体T1后半部做了修改则将导致CPU 1的CACHE LINE 1失效,同样,如果CPU 1对结构体T2前半部做了修改则也将导致CPU 0的CACHE LINE 1失效。

如果CPU 0和CPU 1反复做相应的修改则导致的不良结果显而易见。本来逻辑上没有共享的结构体T1和T2,实际上却共享了CACHE LINE 1,这就是所谓的错误共享。
Linux源码里提供了利用GCC的__attribute__扩展属性定义的宏来做这种对齐处理,在文件/linux-2.6.xx/include/linux/cache.h内可以找到多个相类似的宏,比如:

#define ____cacheline_aligned       __attribute__((__aligned__(SMP_CACHE_BYTES)))

该宏可以用来修饰结构体字段,作用是强制该字段地址与CACHE LINE映射起始地址对齐。

5)只读字段和读写字段隔离对齐

只读字段和读写字段隔离对齐的目的就是为了尽量保证那些只读字段和读写字段分别集中在CACHE的不同CACHE LINE中。

由于只读字段几乎不需要进行更新,因而能在CACHE中得以稳定的缓存,减少由于混合有读写字段导致的对应CACHE LINE的频繁失效问题,

以便提高效率;而读写字段相对集中在一起,这样也能保证当程序读写结构体时,污染的CACHE LINE条数也就相对的较少。

typedef struct {
     /* ro data  */
     size_t block_count;     // number of total blocks
     size_t meta_block_size; // sizeof per skb meta block
     size_t data_block_size; // sizeof per skb data block     
     u8 *meta_base_addr;     // base address of skb meta buffer
     u8 *data_base_addr;     // base address of skb data buffer
 
     /* rw data */
     size_t current_index    ____cacheline_aligned;  // index
     
} bc_buff, * bc_buff_t;

6)申请地址连续的内存空间

随着地址空间由32位转到64位,页内存管理的目录分级也越来越多,4级的目录地址转换也是一笔不小是开销。

硬件产商为我们提供了TLB缓冲,加速虚拟地址到物理地址的换算。但是,毕竟TLB是有限,

对地址连续的内存空间进行访问时,TLB能得到更多的命中,同时CACHE高速缓冲命中的几率也更大。

另外,如果我们使用更大页面(比如2M或1G)的分页机制,同样能够提升性能;因为相比于原本每页4K大小的分页机制,应用程序申请同样大小的内存,

大页面分页机制需要的页面数目更少,从而占用的TLB项目也更少,减少虚拟地址到物理地址的转换次数的同时,提高TLB的命中率,

缩短每次转换所需要的时间。因为大多数操作系统在分配内存时候都需要按页对齐,所以大页面分页机制的缺点就是内存浪费相对比较严重。

只有在物理内存足够充足的情况下,大页面分页机制才能够体现出优势。

7).其它优化

预读指令读内存(prefetch)
提前预取内存中数据到CACHE内,提高CACHE的命中率,加速内存读取速度,这是设计预读指令的主要目的。

如果当前运算复杂度比较高,那么预取和运算就可同步进行,从而消除下一步内存访问的时延。

相应的预读汇编指令有prefetch0、prefetch1、prefetch2、 prefetchnta。
预取指令只是给CPU一个提示,所以它可被CPU忽略,而且就算预取一段错误的地址也不会导致CPU异常。

一般使用prefetchnta预取指令,因为它不会污染CACHE,它把每次取得的数据都存放到L2 CACHE的第一条CACHE LINE,

而另外几条指令会替换CACHE中最近最少使用的CACHE LINE。

非暂时移动指令写内存
我们知道为了保证CACHE与内存之间的数据一致性,CPU对CACHE的写操作主要有两种方式同步到内存,写透式(Write Through)和写回式(Write-back)。不

管哪种同步方式都是要消耗性能的,而在某些情况下,写CACHE是不必要的:
有哪些情况不需要写CACHE呢?比如做数据拷贝(高效memcpy函数实现)时,或者我们已经知道写的数据在最近一段时间内(或者永远)都不会再使用了,

那么此时就可以不用写CACHE,让对应的CACHE LINE自动失效,以便缓存其它数据。

这在某些特殊场景非常有用,相应的汇编指令有movntq、movntsd、movntss、movntps、movntpd、movntdq、movntdqa。

8)总结

要高效的访问内存,必须充分利用系统CACHE的缓存功能,因为就目前来说,CACHE的访问速度比内存快太多了。具体优化方法有:
1.用设计上压缩结构体大小。
2.结构体尽量做到机器字(倍数)对齐。
3.结构体中频繁访问的字段尽量放在机器字对齐的位置。
4.频繁读写的多个结构体变量尽量同时申请,使得它们尽可能的分布在较小的线性空间范围内,这样可利用TLB缓冲。
5.当结构体比较大时,对结构体字段进行初始化或设置值时最好从第一个字段依次往后进行,这样可保证对内存的访问是顺序进行。
6.额外的优化可以采用非暂时移动指令(如movntdq)与预读指令(如prefetchnta)。

 

参考引用:

https://blog.csdn.net/u010983881/article/details/82704733
https://blog.csdn.net/lpf463061655/article/details/105719924
https://blog.csdn.net/hemengsi123/article/details/49814881
http://www.lenky.info/archives/2011/11/310
https://www.sohu.com/a/431454082_115128
https://www.jianshu.com/p/a098f8d749c0
http://cenalulu.github.io/linux/all-about-cpu-cache/

posted on 2022-02-10 17:01  裸睡的猪  阅读(686)  评论(0编辑  收藏  举报