2020/03/04 协方差、特征向量的统计意义理解与图像分布的理解

理解协方差

方差
首先,我们设\(X\)表示随机变量,它的观测样本是\((x_{1}, x_{2}, ..., x_{i}, ...)\)。有了观测样本,我们可以计算出观测样本的平均值\(\bar{x}\)。进一步,我们可以利用公式:
\(\sigma_{x}^{2}=\frac{1}{n-1} \sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}\)
求出该随机变量\(X\)的方差。由公式我们可以看出,方差用来度量随机变量和其数学期望(即均值)之间的偏离程度

协方差
现在我们增加一个随机变量\(Y\),它的观测样本是\((y_{1}, y_{2}, ..., y_{i}, ...)\)。随机变量\(Y\)的观测样本均值为\(\bar{y}\)。这个时候我们可以定义两个随机变量的__协方差__为:
\(\sigma(x, y)=\frac{1}{n-1} \sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)\left(y_{i}-\bar{y}\right)\)
协方差是用来衡量两个随机变量之间的变化方向关系。例:

以上图转载自:CSDN-GoodShot

特征向量统计意义

想象一下我们有一个数量为\(N\)的苹果图片数据集,我们用特征提取器得到能对每张图片提取一个长度为d维的特征向量 (d维: □□□□...□)。我们可以认为每个维度都是一个随机变量\(x_{k}, 其中k\in(1,2,...,d)\)
对于第\(i\)张图片,特征向量每个维度都有相应的值,对应到统计里可以认为是第\(i\)个观测样本值。
□   □   □   ... □   ... □   ...   □  第1个样本
□   □   □   ... □   ... □   ...   □  第2个样本
......
□   □   □   ... □   ... □   ...   □  第i个样本
\(x_{1,i}\) \(x_{2,i}\) \(x_{3,i}\) ... \(x_{k,i}\) ... \(x_{m,i}\) ... \(x_{d,i}\)
......
□   □   □   ... □   ... □   ...   □  第\(N\)个样本

这样,各个维度之间的协方差:
\(\sigma\left(x_{m}, x_{k}\right)=\frac{1}{n-1} \sum_{i=1}^{n}\left(x_{m i}-\bar{x}_{m}\right)\left(x_{k i}-\bar{x}_{k}\right)\)

反映在batch的矩阵操作上是这样的:

vsd_file

参考文章:| 如何直观地理解「协方差矩阵」 |

计算机视觉中,图像分布的理解

图片的每个像素位置我们也能够认为是随机变量,它们分别服从一定的分布。

我们假设某个像素位置为随机变量\(Z\),它服从高斯分布
\(p(z)=\frac{1}{\sqrt{2 \pi} \sigma} \mathrm{e}^{-(z-\bar{z})^{2} / 2 \sigma^{2}}\)
它的概率密度分布如图所示

这就表示该像素的值有70%的概率落在\([(\bar{z}-\sigma),(\bar{z}+\sigma)]\)
参考:mysee1989

多元高斯分布例子吴恩达斯坦福笔记
多元高斯分布的由来知乎-清雅的机器学习笔记
主要证明思路:1. 从一元标准正态分布(均值0,方差1)推广到 n 个独立标准正态分布。2.进而用\(\vec x\)的线性变换推广到一般。

posted @ 2020-03-04 14:17  小恶魔oo  阅读(481)  评论(0编辑  收藏  举报