费希尔信息数(Fisher Infomation)
解释2:
解释3:
Fisher Infomation的意义
Fisher Information 顾名思义,就是用来衡量样本数据的信息量的,通常我们有一组样本,我们在机器学习中需要估计出样本的分布,我们是利用样本所具有的信息量来估计参数的,样本中具有的信息量越多,估计的参数越准,样本的分布估计的就越接近真实分布,这里的信息量就是用Fisher Information来表示的。
什么样本信息量比较大?
我们用样本发生的概率来衡量样本本身所携带的信息量,如果样本发生的概率比较大,那么说明我们在这个样本上可以学习到的东西不多,例如机器学习中,样本一上来概率就都是1,那么参数w就基本学习不出了,相反,如果样本发生的概率比较小,就可以认为该样本携带的信息很多。
————————————————
版权声明:本文为CSDN博主「懒人元」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/lanran2/article/details/77995062
解释4:
为了解得Maximum Likelihood Estimate(MLE),我们要让log likelihood的一阶导数得0,然后解这个方程,得到theta^{hat}_MLE
这个log likelihood的一阶导数也叫,Score function
那么Fisher Information的定义就是这个Score function的二阶矩
于是得到了Fisher Information的第一条数学意义:就是用来估计MLE的方程的方差。它的直观表述就是,随着收集的数据越来越多,这个方差由于是一个Independent sum的形式,也就变的越来越大,也就象征着得到的信息越来越多。
Fisher Information的第二条数学意义:log likelihood在参数真实值处的负二阶导数的期望。
Fisher Information的第三条数学意义:theta协方差的逆矩阵(它的逆矩阵被称为协方差矩阵)。Fisher Information反映了我们对参数估计的准确度,它越大,对参数估计的准确度越高,即代表了越多的信息。
如果这篇文章帮助到了你,你可以请作者喝一杯咖啡