随笔分类 -  线性代数/矩阵论

摘要:奇异值分解(Singular Value Decomposition, SVD)可以被看做是方阵特征值分解的推广,适用于任意形状的矩阵。 对于矩阵ARm×n,不失一般性,假设mn,奇异值分解期望实现: A=UΣVT 其中U,V分别为 阅读全文
posted @ 2023-09-13 11:18 颀周 阅读(391) 评论(0) 推荐(0) 编辑
摘要:找张量积概念的时候,被各种野路子博客引入的各种“积”搞混了,下面仅以Wikipedia为标准记录各种积的概念。 点积(Dot product) https://en.wikipedia.org/wiki/Dot_product 在数学中,点积(Dot product)或标量积(scalar prod 阅读全文
posted @ 2023-03-16 18:08 颀周 阅读(2337) 评论(0) 推荐(1) 编辑
摘要:虽然不是什么有应用价值的定理,但是每次看到实对称矩阵时总会有疑惑,现在记录下来。 证明 设有实对称矩阵A,它的特征值与对应的特征向量分别为λ,x,另外记A¯,λ¯,x¯分别为它们对应的共轭复数(矩阵和向量 阅读全文
posted @ 2020-10-23 16:10 颀周 阅读(9642) 评论(0) 推荐(9) 编辑
摘要:在深度学习中,我们通常对模型进行抽样并计算与真实样本之间的损失,来估计模型分布与真实分布之间的差异。并且损失可以定义得很简单,比如二范数即可。但是对于已知参数的两个确定分布之间的差异,我们就要通过推导的方式来计算了。 下面对已知均值与协方差矩阵的两个多维高斯分布之间的KL散度进行推导。当然,因为便于 阅读全文
posted @ 2020-10-12 20:29 颀周 阅读(5061) 评论(0) 推荐(5) 编辑
摘要:PCA 主成分分析(Principal Components Analysis, PCA)是一种降维方法。假设数据集XRn×m包含nm维数据,PCA即实现线性映射Y=XDRn×k。其中矩阵$D\in R^{m\times k},k 阅读全文
posted @ 2020-05-25 23:22 颀周 阅读(1578) 评论(1) 推荐(3) 编辑
摘要:高数 梯度与法向量的关系 求曲面f(x(1),...,x(n))=0(x0(1),...,x0(n))处的法向量(有f(x0(1),...,x0(n))=0),实际上就是求z=f(x(1),...,x(n))在$(x^{( 阅读全文
posted @ 2020-04-13 00:12 颀周 阅读(515) 评论(0) 推荐(1) 编辑
摘要:特征值之积等于矩阵行列式 对于n阶方阵A,我们可以解λn次方程 |AλE|=0 来求A的特征值。又因为在复数域内,A一定存在n个特征值λ1,λ2...λn使上式成立。因此作为λ 阅读全文
posted @ 2020-04-03 20:24 颀周 阅读(15124) 评论(2) 推荐(3) 编辑
摘要:幂法是通过迭代来计算矩阵的主特征值(按模最大的特征值)与其对应特征向量的方法,适合于用于大型稀疏矩阵。 基本定义 设A=(aij)Rn×n,其特征值为λi,对应特征向量xi(i=1,...,n),即$Ax_i = \lambda_i x 阅读全文
posted @ 2020-02-08 23:22 颀周 阅读(8884) 评论(0) 推荐(6) 编辑
摘要:迭代法是通过迭代的方式,一步一步逼近线性方程组解。它不一定能获得精确解,但在迭代多次以后,精度可以无限接近解的真实值。所以当矩阵的维度很高时,在程序中可用这种方法来求解线性方程组。它的基本形式如下: x(k+1)=Bx(k)+f 首先设置一个随机初始值x(0),然后 阅读全文
posted @ 2020-02-06 19:33 颀周 阅读(1824) 评论(0) 推荐(1) 编辑

很高兴能帮到你~
点赞
more_horiz
keyboard_arrow_up dark_mode palette
选择主题
点击右上角即可分享
微信分享提示