摘要: 我们通过PCA把二维数据降到一维。 那么怎么把一维数据变回二维 通过X=UZ 我们得到的点都在z轴上 这个X十分解决x了 如何去选择k值 PCA的成本函数: 总变差(这些x长度的平方均值): 意味这我的平均向量离0向量有多远 我们选择k使下面的公式成立: 使得99%差异性得到保留 除了0.01,人们 阅读全文
posted @ 2017-08-23 16:29 郑哲 阅读(569) 评论(0) 推荐(0) 编辑
摘要: 比如说我们有两个特征变量,我们想让他变成一个变量 首先我们画一条线,做各个点到这条线上的投影,箭头所指的蓝色线段为 投影误差,PCA不会选择红色这条线投影,因为投影误差太大了。 所以PCA的目标是使投影误差最小化 PCA和线性回归的区别 线性回归的误差来自竖直方向,而PCA的误差来自垂直方向 PCA 阅读全文
posted @ 2017-08-23 15:09 郑哲 阅读(343) 评论(0) 推荐(0) 编辑
摘要: 当有两个特征变量为厘米和英尺时,我们可以把两个特征变量降为1个 两个变量的值几乎呈线性关系,相关性很强 于是得到下图的新的变量: 同样可以把3维降到2维: 维数约减同样可以用在高维度。 数据可视化 当我没有大量变量,比如有50个 我们可以用维数减约来降到两维 从而使数据可视化 阅读全文
posted @ 2017-08-23 14:36 郑哲 阅读(615) 评论(0) 推荐(0) 编辑