SQLServer 2016之后的触发统计信息自动更新阈值算法变化
背景:最近trouble shooting某数据库性能问题,发现统计信息相关的一些信息,跟以往“经验”是不吻合的,在以往的知识中,统计信息不应该这么频繁的更新啊
之前吐槽了很多年的统计信息自动更新阈值算法(操蛋的500 + (0.20 * n)),其实早在SQLServer 2016中就有优化过了,一直没有注意这个细节,汗颜!
https://www.cnblogs.com/wy123/p/5875237.html
https://www.cnblogs.com/wy123/p/5790855.html
最显著的变化,在SQLServer 2016之后,表行数大于500之后:MIN ( 500 + (0.20 * n), SQRT(1,000 * n) ),也即取原算法和1000倍的二次方根的最小值,作为触发阈值。
Table type | Table cardinality (n) | Recompilation threshold (# modifications) |
---|---|---|
Temporary | n < 6 |
6 |
Temporary | 6 <= n <= 500 |
500 |
Permanent | n <= 500 |
500 |
Temporary or permanent | n > 500 |
MIN ( 500 + (0.20 * n), SQRT(1,000 * n) ) |
根据上述算法,可以发现,
1,算法修改之前,触发统计信息自动更新的值,是随着表的行数的变化为一条严格的一次函数500 + (0.20 * n)
2,算法修改之后,触发统计信息自动更新的值,对于这个计算公式MIN ( 500 + (0.20 * n), SQRT(1,000 * n) ,可以得知:在表的行数超过200W之后,会采用SQRT(1,000 * n)这一新的算法
3,算法修改之后,统计信息自动更新阈值的算法SQRT(1,000 * n)是一条随着表的行数的变化,波动率较低的曲线,也就是意味着更倾向于在一个较小的变化之后触发统计信息自动更新。
4,二次方根(SQRT)是一个非常有魔力的计算规则!!!
根据 500 + (0.20 * n),和SQRT(1,000 * n) 两个公式计算出来触发统计信息自动更新的阈值