CLR GC 动态加载短暂堆阈值的计算及阈值超量的计算
楔子
今天你躺平了吗?生活是如此的无趣,欢迎大家一起来躺平
前言:
很多书籍或者很多文章,对于CLR或者GC这块只限于长篇大论的理论性概念,对于里面的如何运作模式,却几乎一无所知。高达近百万行的CPP文件,毕竟读懂的没有几个。以下取自CLR.Net 6 PreView版本
分配量超过阈值
GC触发里面有一个GC被触发的条件是,分配的内存块超过阈值。这个阈值是在Generation代里面的static_data里面的存储的固定数值。当你分配的内存块超过这个阈值的时候,就会触发GC进行垃圾回收。来看看这个阈值动态加载和超过阈值触发GC垃圾回收之后,重新计算阈值的算法。
初始化
在CLR启动的时候,会初始化Generation的静态数据,此时会填充阈值。
Generation的部分静态数据结构:
struct static_data
{
size_t min_size; 阈值的下限
size_t max_size; 阈值的上限
size_t fragmentation_limit; 碎片空间的上限
float fragmentation_burden_limit; 碎片空间百分比的上限
float limit; 限度的下限
float max_limit; 限度的上限
uint64_t time_clock;
size_t gc_clock;
};
下面是GC定义的初始化参数数值,以上面的结构参考下面:
static static_data static_data_table[latency_level_last - latency_level_first + 1][total_generation_count] =
{
{
// gen0
{0, 0, 40000, 0.5f, 9.0f, 20.0f, (1000 * 1000), 1},
// gen1
{160*1024, 0, 80000, 0.5f, 2.0f, 7.0f, (10 * 1000 * 1000), 10},
// gen2
{256*1024, SSIZE_T_MAX, 200000, 0.25f, 1.2f, 1.8f, (100 * 1000 * 1000), 100},
// loh
{3*1024*1024, SSIZE_T_MAX, 0, 0.0f, 1.25f, 4.5f, 0, 0},
// poh
{3*1024*1024, SSIZE_T_MAX, 0, 0.0f, 1.25f, 4.5f, 0, 0},
}
}
直接套用:
0代: 阈值下限0,无限制,限度下限9,限度上限20
1代: 阈值下限160kb,无限制,限度下限2,限度上限7
2代: 阈值下限256kb,无限制,限度下限1.2,限度上限1.6
这是最初始化的值,什么意思呢?简而言之,就是CLR在加载此初始化的值的之后,进行了动态的分配的阈值的上下限。也就是说实际上GC的阈值和这里面表明的静态数值有差别。
下面计算均为函数init_static_data里面
0代阈值的下限动态计算方式(以工作站模式为例):
1.通过gc的配置文件(gcconfig)来获取配置文件里面配置的值,如果获取此值失败则跳转到第二步
2.通过windows API GetLogicalProcessorInformation获取到你当前电脑处理器最大的缓存值。
3.下面就是GC第0代阈值的算法了
0代阈值下限= = max((4*你当前电脑处理器最大缓存值/5),(256*1024))
你当前电脑处理器最大缓存值 = max(你当前电脑处理器最大缓存值, (256*1024))
while(如果0代阈值下限*处理器个数>你当前堆分配物理内存总大小/6)
{
0代阈值下限 = 0代阈值下限/2
if(0代阈值下限 <=你当前电脑处理器最大缓存值 )
{
0代阈值下限 = 你当前电脑处理器最大缓存值
}
}
if( 0代阈值下限 > = 小对象堆段(SOH)/2)
{
0代阈值下限 = 小对象堆段(SOH)/2
}
0代阈值下限 = 0代阈值下限 / 8 * 5;// 到了这里才是最终第0代阈值的下限,而非上面generaton的静态数据static_data_table里面的下限阈值为0.
第0代阈值的上限呢?(此处同时看下服务器模式和工作站模式)
服务器模式0代阈值上限的算法:
0代阈值上限=max (6*1024*1024, min ( Align(soh_segment_size/2), 200*1024*1024))
工作站模式0代阈值上限的算法
0代阈值上限= max (0代阈值的下限,0代阈值的上限)
0代阈值上限 = Align (0代阈值的下限)
第1代阈值的上限(服务器模式和工作站模式)
第1代阈值的下限是160kb,那么上限呢?
服务器模式1代阈值的上限=max (6*1024*1024, Align(小对象堆的大小/2));
工作站模式1代阈值的上限=gen1_max_size = Align (服务器模式1代阈值的上限/0)
阈值上限的重新计算
当阈值上限的剩余空间不足以容纳当前CLR分配的内存块的时候,就造成了GC。GC之后,就会重新计算这个阈值的上限。这里是算法
if(GC开始前存活的对象为0)
{
阈值的上限 = 当前代的阈值下限
}
else
{
if(当前代 >= 第二代)
{
cst = min (1.0f, float (GC之后活着的对象大小) / float (GC之前活着对象大小));
if(cst<((限度的上限-限度的下限)/(限度的下限*(限度的上限 - 1.0f)))
{
限度= ((限度的下限 - 限度的下限* cst)/ (1.0f - (cst * 限度的下限)))
}
else
限度 = 限度的上限
size_t max_growth_size = (限度的上限 / 限度)
if( 当前代的大小 > = max_growth_size)
新分配量= 阈值的上限
else
{
新分配量 = (size_t) min (max ( (限度 * 当前代的大小), gc的最小值), 限度的上限);
限度的上限 = max((新分配量 - 当前代的大小),gc的最小值);
}
}
else //如果是第二代以内的GC
{
cst = GC后活着的对象大小/ GC前活着对象大小
if (cst < ((限度的上限 - 限度的下限) / (限度的下限 * (限度的上限-1.0f))))
限度= ((限度的下限 - 限度的上限*cst) / (1.0f - (cst * 限度的下限)));
else
限度= 限度的上限;
阈值的上限=min (max ((f * (GC后活着对象的大小)), 限度的下限), 限度的上限);
}
}
由于这个过程过于复杂,中间很多细节。但是大体都是这样。
以上参考如下:
https://github.com/dotnet/runtime/tree/main/src/coreclr/gc
微信公众号:jianghupt QQ群:676817308