2020年1月13日

特征值分解与奇异值分解

摘要: https://www.cnblogs.com/fuleying/p/4466326.html 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。 1. 特征值: 如果说一个向量v 阅读全文

posted @ 2020-01-13 16:19 若流芳千古 阅读(1116) 评论(2) 推荐(1) 编辑

向量内积&外积

摘要: 一、向量的内积 1.1向量内积的定义 一、向量的内积 1.1向量内积的定义 概括地说,向量的内积(点乘/点积/数量积)就是对两个向量执行点乘运算,即对这两个向量对应位一一相乘之后求和的操作,如下所示,对于向量a和向量b: a和b的点积公式为: 这里要求一维向量a和向量b的行列数相同。注意:点乘的结果 阅读全文

posted @ 2020-01-13 13:58 若流芳千古 阅读(7109) 评论(0) 推荐(0) 编辑

导航