随笔分类 - Algebra_Matrix_Tensor
摘要:矩阵Frobenius范数的定义如下: 所以矩阵F范数的平方可以转化为矩阵的内积(内积的定义可参考这篇文章),再转化为矩阵的迹,即 我们经常遇到需对矩阵F范数的平方求导的情况,根据上式,可转化为对矩阵的迹的求导了。
阅读全文
摘要:被称作核心张量,一般是满张量(full tensor),即其非对角线元素一般也不为零。 Tucker分解又称高阶奇异值分解(High Order Sigular Value Decompsition, HOSVD)。
阅读全文
摘要:虽然我在矩阵微分系列中有介绍关于矩阵和向量的求导,但是不够系统,无意中发现一位同仁写的矩阵和向量的求导系列博客,写的很详细,相当不错,特此推荐: 机器学习中的矩阵向量求导(一) 求导定义与求导布局 机器学习中的矩阵向量求导(二) 矩阵向量求导之定义法 机器学习中的矩阵向量求导(三) 矩阵向量求导之微
阅读全文
摘要:-norm encourages the columns of matrix A to be zeros. For example, we have objective function:
阅读全文
摘要:从奇异值的角度看矩阵范数,会发现与向量范数有一一对应关系: (注:表中涉及到用奇异值表示Frobenius范数,其推导可参考这篇博客) 向量的L1范数是L0范数的松弛,并且在一定条件下是等价的。矩阵核范数是rank约束的松弛,并且在一定条件下是等价的。
阅读全文
摘要:定义:若,则称为幂等矩阵。 1.幂等矩阵的特征值只取1和0两个数值 证明: 设是幂等矩阵的特征值,是与对应的特征向量,则 $\lambda \bold{v}=A\bold{v}=A^2 \bold{v}=\lambda^
阅读全文
摘要:本文摘自史加荣等人发表在计算机应用研究杂志的《低秩矩阵恢复算法综述》
阅读全文
摘要:本文摘自《矩阵分析与应用》张贤达
阅读全文
摘要:本文摘自知乎为何矩阵特征值乘积等于矩阵行列式值?
阅读全文
摘要:本文摘自知乎为什么特征值之和会等于矩阵的迹?
阅读全文
摘要:本文摘自《矩阵分析与应用》张贤达
阅读全文
摘要:本文摘自:Tensor Decomposition and its Applications, Daniel Tock
阅读全文
摘要:「本文摘自矩阵的 Frobenius 范数及其求偏导法则」
阅读全文
摘要:本文大部分内容摘自以下三个参考资料,增加了一点自己的理解和总结: 奇异值分解小结 矩阵论笔记:奇异值分解SVD 矩阵分解 3. SVD分解示例 4. SVD分解总结 流程图: 用矩阵表示就是:
阅读全文
摘要:「本文部分内容摘自一份佚名的资料」 符号说明: 1 证明: 将证明过程展开即是 2 将证明过程展开即是 3 将证明过程展开即是 4 证明方法一: 证明方法二: 上面的证明用到了一条求导规则:
阅读全文