透过表象看本质!?之二——除了最小p乘,还有PCA
如图1所示,最小p乘法求得是,而真实值到拟合曲线的距离为。那么,对应的是什么样的数据分析呢?
图1 最小p乘法的使用的误差是。真实值到拟合曲线的距离为
假如存在拟合曲线,设直线方程为。真实值到该曲线的投影点为。p=2时,则两点之间的距离为
(37)
(38)
点在直线上,同时。这两个条件构成如下方程组
(39)
联立上述方程组求得
(40)
代入式(37)(38)得
(41)
上式两边对b求偏导,令偏导数为零得
(42)
化简为
(43)
(44)
令
(45)
(46)
将式(45)(46)代入式(44)得
(47)
(48)
因此,该直线通过均值点,投影点可以改写为
(49)
其中e是直线方向的单位向量。将式(49)代入式(38)得
化简为
(50)
其中。上式中等号右边的第二项是个常量,不影响I取得极值时对应的e,可以去掉。同时,我们假设e是单位向量,则。重写I如下
(51)
上式两边对e求导得
(52)
化简得
(53)
上式成立时,u取得最大值,I取得最小值。对上两边同时除以(n-1),得到数据矩阵的协方差矩阵。/(n-1)是协方差矩阵的特征值,e是对应的特征向量。上述推导过程可以较为简单的推广到m维空间。对特征值按降序排列,,其中m为数据变量的维度。对应着数据的主方向。经过特征向量矩阵的映射,将协方差矩阵投影为对角阵,变量之间的相关性被消除,而数据方差最大的方向就是主方向。
当计算出数据协方差矩阵的特征向量后,我们计算贡献率
(54)
求出
(55)
使用前个特征值和特征向量压缩原来的数据的表达空间,同时还能保证压缩后的数据矩阵损失最小。上述方法就是我们熟悉的PCA。
主方向线通过数据矩阵的均值点,这个点对应的是使用PCA做人脸识别时求出的均值脸。
总结一下PCA的推导过程,
1、去数据变量样本间的均值,并将该均值从数据矩阵中减去,得到零均值矩阵。
2、求零均值数据矩阵的协方差矩阵。
3、求协方差矩阵的特征向量和特征值。
4、按照一定的比例选择特征值和特征向量,实现降维。
上面推导的是线性关系的PCA,对于非线性的数据上面的方法可能会失效。解决方法,使用核函数将数据映射到高维再进行上述分析,这貌似就是kernel PCA。
同时,PCA分析的主方向通过数据的均值。而数据的均值很采样数据紧相关,如果数据中存在粗大误差,那么此时的均值不能反应真实的数据均值。如果不进行预处理,后续的PCA分析很可能会是错误的,达不到预期的效果。因此,对数据进行预处理是很必要的,剔除粗大误差后再进行PCA分析,貌似就是robust PCA。
在PCA推导的过程中,我们可以较为清晰地看到,如果将数据标签揉到推导中,修改优化的目标函数,我们应该能推导出SVM。因此,不同的误差定义,不同的优化目标函数推导出了不同的数据分析方法。无论这些怎么变换花样,其依托的数学思想都是一致的。
说到这里,我们差不多吧数据拟合相关的数据分析方法说了遍,但是说来说去关键问题还是没有触及,我们最关心最希望自动化的东西没有设计,那就是数据的模式,线性的还是非线性的,一阶的还是二阶的等等问题。因为,我们明明可以看到数据在图像上或者几何上呈现出了某种分布,但是却不能通过数学推导自动化的把它从数据中挖出来。
到底能不能是一个终极问题,这个系列的文章只能做个抛砖引玉,希望能够激发出大家的进一步迭代思考,也许这种模式对应的数学公式就在不远处。