摘要: http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html 一、奇异值与特征值基础知识: 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解 阅读全文
posted @ 2016-03-08 18:11 sweetxy 阅读(2009) 评论(0) 推荐(0) 编辑
摘要: http://blog.csdn.net/xianlingmao/article/details/7919597 对于存在约束条件的函数进行最优化的方法主要有:拉格朗日乘子法,和kkt法。拉格朗日乘子法针对约束条件为等式,其中kkt法是拉格朗日乘子法的泛化,可以针对不等式,对于k为什么是有效的没有完 阅读全文
posted @ 2016-03-08 11:43 sweetxy 阅读(848) 评论(0) 推荐(0) 编辑
摘要: 并没有完全看懂,先收藏。在没有约束条件的情况下,求函数的最优解。 梯度的方向与等值面垂直,并且指向函数值提升的方向。 二次收敛是指一个算法用于具有正定二次型函数时,在有限步可达到它的极小点。二次收敛与二阶收敛没有尽然联系,更不是一回事,二次收敛往往具有超线性以上的收敛性。一阶收敛不一定是线性收敛。 阅读全文
posted @ 2016-03-08 11:27 sweetxy 阅读(612) 评论(0) 推荐(0) 编辑
摘要: 找到一个讲机器学习的好博客!!写的真的很6,看了写的svm,条理清晰!!http://blog.csdn.net/zouxy09/article/details/17291543 将数据利用一个分隔超平面分隔开来,使得再被分隔开来的数据具有特定的分类。如果数据点在一个二维平面上,那么这个分隔超平面就 阅读全文
posted @ 2016-03-08 11:20 sweetxy 阅读(1399) 评论(0) 推荐(0) 编辑