知识点7: 矩阵二次型:
矩阵的二次型是指一个关于向量的二次多项式,可以表示为:
其中是的实对称矩阵,是维列向量。是矩阵的元素。矩阵是二次型的系数矩阵。
💠 矩阵二次型在数学和工程领域有许多应用。以下是其中的一些:
① 物理学:矩阵二次型可用于描述力学系统和电磁场的动态性质,例如能量函数、势能函数等可以表示为二次型形式,而矩阵二次型的特征值和特征向量也在物理学中有很多应用。
② 统计学:矩阵二次型可用于多元统计分析中的方差分析、协方差矩阵、线性判别分析和主成分分析等。
③ 优化问题:矩阵二次型可用于优化问题的求解,例如线性规划、二次规划、整数规划和非线性规划等。
④ 信号处理:矩阵二次型可用于信号处理领域的自适应滤波和卷积运算等。
⑤ 机器学习:矩阵二次型在机器学习领域中被广泛应用,例如支持向量机(SVM)就是利用二次型来构造分类器的,而通过对二次型的特征分解可以得到数据的主成分,进而对数据进行降维处理。
🌂 正定二次型:
正定二次型是指二次型函数的取值恒为正数,即对于二次型函数 ,对于任意的非零向量,都有成立的情况。其中是的实对称正定矩阵。
👂 研究正定二次型的意义在于它在数学和应用中具有广泛的应用。以下是一些重要的应用:
① 优化问题:正定二次型在优化问题中发挥着重要作用。例如,在约束为线性的最优化问题中,如果目标函数是正定二次型,那么该问题的最优解可以通过求解线性方程组来得到。
② 物理学:正定二次型在物理学中具有广泛应用。例如,在势能函数中,正定二次型可以表示系统的稳定性。
③ 统计学:正定二次型在统计学中有着广泛应用,特别是在多元正态分布中。正定二次型可以用来描述协方差矩阵的特性。
④ 机器学习:在机器学习中,正定二次型被广泛应用于支持向量机、正则化等领域。例如,在支持向量机中,正定二次型可以用来定义核函数,进而将高维数据映射到低维空间。
🎁 正定二次型在几何上有以下理解:
一个维向量,它在二次型作用下得到的值可被视为向量的长度的平方,即,其中表示向量的模长。
如果二次型是正定的,那么它在取遍所有的非零向量时所得到的值都大于零,即。这意味着对于所有的非零向量,它在作用下的结果都是正数,也就是说,向量的长度的平方都大于零,即,即向量的长度都大于零。因此,正定二次型可以被视为一种将向量长度映射到正实数上的函数,它在几何上对应着一个内积,即,其中是一个对称正定矩阵,表示向量的转置。
因此,正定二次型在几何上的意义就是它定义了一个向量空间上的内积,它可以被用来描述向量的长度、角度、投影等几何性质,以及向量之间的正交性等性质。在实际应用中,正定二次型经常被用来表示优化问题的目标函数,因为它具有良好的数学性质,例如可以使用梯度下降等优化算法来求解极小值。
在几何上,正定二次型可以理解为一个椭圆或者一个超曲面,在每个点的函数值都是正数。具体来说,对于一个元正定二次型,可以将它写成向量形式,即,其中是一个维列向量,是一个的对称矩阵,。
因为是对称矩阵,所以它可以通过正交对角化变成一个对角矩阵,即,其中是一个正交矩阵,即,是一个对角矩阵,对角线上的元素为的特征值。因此,原来的二次型可以写成:
Q(x)=x T Ax=xT PT DPx=(Px)T D(Px)
令,则原来的二次型可以写成的形式,其中的每个分量是在正交基下的坐标,是一个对角矩阵,它的对角线上的元素是原二次型的特征值。因为原来的二次型是正定的,所以的每个特征值都大于零,因此在每个点的函数值都是正数。
从几何角度来看,对应的是一个椭圆或者一个超曲面,而且在每个点的函数值都是正数。这个椭圆或超曲面的形状和大小与矩阵的特征值有关。具体地,如果的所有特征值都很大,则对应的椭圆或超曲面就很扁,而且长轴和短轴的比例比较大;如果的某些特征值很小,那么对应的椭圆或超曲面就很圆。这种几何意义有助于理解正定二次型的性质,以及在优化问题中的应用。
参考链接7.1:二次型的意义是什么?有什么应用? - 知乎
参考链接7.2:记忆常用公式 - 博客侦探 - 博客园
参考链接7.3:深度科普 度规与时空(上):从二次型的几何直观说起 - PeiLingX的文章 - 知乎
参考链接7.4:二次型和特征值 - WHL的文章 - 知乎
参考链接7.5:线性代数-6.二次型 - 钱辰的文章 - 知乎
|
知识点8: 正交矩阵/对称矩阵/酉矩阵:
空间 |
实空间 |
复(酉)空间 |
变换 |
正交变换 |
|
酉变换 |
|
对称变换 |
|
酉对称变换(Hermit变换) |
|
矩阵 |
正交矩阵 |
|
酉矩阵 |
|
实对称矩阵 |
|
厄米特(Hermite)矩阵 |
|
|
|
正规矩阵 |
|
正交变换不会改变向量间的正交性,如果和正交,则和仍然是正交的。
|
知识点9: 欧氏空间与酉空间一些结论小结:
⓪ 过渡矩阵(我个人又称为基变换矩阵):旧基到新基的转换矩阵;度量矩阵:欧式空间的一组基之间的内积作为元素构成的矩阵。
① 欧式空间两个不同基对应的度量矩阵和是合同的,即;
② 一个基为标准正交基的充要条件是它的度量矩阵为单位矩阵;
③ 一个矩阵为正交矩阵的充要条件为它的列向量是两两相互正交的单位向量。
④ 正交矩阵非奇异、其逆矩阵仍是正交矩阵、两个正交阵相乘仍是正交阵;
⑤ 欧氏空间一个变换为正交变换的充要条件是对应于标准正交基下的矩阵是正交矩阵;
⑥ 正交变换在标准正交基下的矩阵才是正交矩阵,在别的基下不一定是正交矩阵;
⑦ 两个标准正交基之间的过渡矩阵是正交矩阵。
⑧ 欧式空间一个变换为实对称变换的充要条件是对于标准正交基的矩阵是实对称矩阵;
⑨ 实对称矩阵的特征值均为实数、实对称矩阵不同特征值对应的特征向量正交;
⑩ 酉空间的正交变换被称为“酉变换”,酉变换在酉空间的标准正交基下的矩阵是酉矩阵,即满足;
⑪ 酉矩阵的逆矩阵是酉矩阵、两个酉矩阵乘积是酉矩阵;
⑫ 酉空间的对称变换被称为“Hermite变换/酉对称变换”,Hermite变换在酉空间的标准正交基下的矩阵是Hermite矩阵,即满足;
⑬ Hermite矩阵的特征值均为实数、Hermite矩阵不同特征值对应的特征向量正交;
⑭ Schur定理:任意阶方阵一定(酉)相似于上/下三角矩阵
- 欧式空间中:设的特征值为,且,则一定存在正交矩阵使得:
⑮ 阶方阵(酉)相似于对角矩阵的充要条件:为正规矩阵,即
⑯ 实对称矩阵一定能正交相似于对角矩阵。
⑰ 为欧式空间的对称变换,则一定能找到一组基使在该基下的矩阵为对角矩阵。
⑱ 复对称矩阵与实对称矩阵的显著区别之一是不一定能对角化。
⑲ 任何阶方阵都可以相似于一个Jordan标准形矩阵。
⑳ 实矩阵的复特征值一定是成对共轭出现的。
|
知识点10: 常见向量范数和矩阵范数
|
向量范数 |
矩阵范数 |
关系 |
关系 |
0-范数 |
|
|
|
|
1-范数 |
|
|
从属范数;
相容; |
从属范数的定义: 此时与向量范数相容。
由于是从属范数,因此单位阵的这三种范数均等于1:
|
2-范数 |
|
,是矩阵的最大特征值 |
-范数 |
|
|
Lp范数 |
|
|
|
|
范数 |
|
|
|
|
范数 (F-范数) |
|
|
|
|
范数 |
|
|
|
|
|
知识点11: 级数的收敛性
🍺 正项级数及其判敛法(重点部分)
在级数理论中,正项级数是非常重要的一种,对一般级数的研究有时可以通过对正项级数的研究来获得结果,就像非负函数广义积分和一般广义积分的关系一样。
所谓正项级数是这样一类级数:级数的每一项都是非负的。如果级数的各项都是负数,则它乘以-1后就得到一个正项级数,它们具有相同的敛散性。
正项级数收敛性的判别方法主要包括:利用部分和数列判别法、比较原则、比式判别法、根式判别法、积分判别法以及拉贝尔判别法等。
设与为正项级数,其收敛性判断如下:
-
比较审敛法
-
比值审敛法
- 设
- 若,级数收敛;
- 若,级数发散;
- 若,级数可能收敛、可能发散,需另外判断。
-
根值审敛法
- 设
- 若,级数收敛;
- 若,级数发散;
- 若,级数可能收敛、可能发散,需另外判断。
🎨 幂级数的收敛半径和收敛域
① 函数项级数
定义:
收敛点:使函数项级数收敛的点。
收敛点:使函数项级数发散的点。
收敛域:,即所有收敛点的集合。
② 幂级数及其收敛性
定义:。
收敛半径:若,则有:
1° 当时,收敛半径为;
2° 当时,收敛半径为;
3° 当时,收敛半径为。
在实际应用中,常常用直接计算幂级数的收敛半径。另一方面,利用正项级数的根值判别法,收敛半径也可以用极限来计算
🍭 绝对收敛级数与条件收敛级数:
绝对收敛和条件收敛的本质区别在于:是否满足“黎曼重排定理”。
- 黎曼重排定理:
- 如果一个实数项无穷级数若是条件收敛的,它的项在重新排列之后,重新排列后的级数收敛的值可能会收敛到任何一个给定的值,甚至发散;
- 而对于一个绝对收敛级数,它的项在重新排列之后,收敛性不变,并且级数和不变。
此定理说明,我们不能随意排列一个级数,并且在级数求和时候尽量不能随机排列更不能轻易加括号(一个例子就是这个不收敛级数,如果在计算该级数和时加括号,则可能会导致得到一个收敛级数和)。
收敛半径。。。。。。。。。
转载11.1:绝对收敛级数与条件收敛级数有何本质区别? - 达瓦里希也喝脉动的回答 - 知乎
https://blog.csdn.net/HGGshiwo/article/details/105209452
数分笔记——6种数项级数的收敛性证明的基本方法 - Fiddie的文章 - 知乎
高等数学十:(1)无穷级数 - Lawliet的文章 - 知乎
高等数学十:(4)函数项级数的一致收敛 - Lawliet的文章 - 知乎
|
知识点13: 方阵的最小多项式
对于一个矩阵,我们称它首项系数为1的次数最低的零化多项式是的最小多项式,记作,显然有。
🚩 的几个性质:
① 最小多项式是零化多项式的因子;
② 相似矩阵具有相同的最小多项式,但是最小多项式相同的矩阵不一定相似,这一点和特征多项式是一样的,特征多项式相同的矩阵也不一定相似;
③ 最小多项式保留了特征根因式,即最小多项式整除特征多项式。
⭕ 最小多项式的求法:
① 第一种方法:算出这个矩阵的Jordan标准型,设其特征值分别为。如果Jordan标准型中以为对角元的Jordan块的最大阶数为,那么这个矩阵的最小多项式为:
② 第二种方法:判断是否可以被线性表示,如果不能,判断是否可以被和线性表示,如果不能,判断是否可以被、、先行表示。以此类推,直到出现某个,使得可以被、···、、线性表示,不妨设:
那么其最小多项式为:
例如:如果,那么A的最小多项式为
③ 第三种方法:矩阵的最小多项式就是的特征矩阵的第个不变因子,这是求解一个矩阵的最小多项式的有效通法。
④ 第四种方法:矩阵的最小多项式为最后一个不变因子。由Smith标准型(不变因子)的定义,最后一个不变因子是所有初等因子的最小公倍式,而最小多项式是所有初等因子的最小公倍式,则最小多项式是最后一个不变因子。最小多项式最高次幂是一次,由前一个不变因子整除后一个不变因子,前面的所有不变因子是一次因式的乘积,即不变因子相乘得到的特征多项式都是一次因式的乘积 r级Jordan块的最小多项式是初等因子,所以在大范围内,Jordan标准型的最小多项式是所有初等因子的乘积。
参考13.1:最小多项式 - 中文数学Wiki
参考13.2:矩阵的最小多项式怎么求? - Morant的回答 - 知乎
参考13.3:这个矩阵怎么求最小多项式? - 悲伤的阿木木的回答 - 知乎
参考13.4:为什么矩阵的最小多项式为最后一个不变因子 - 百度知道
参考13.5:求极小多项式举例 - CSDN
参考13.6:「管理数学基础」1.5 矩阵理论:方阵的行列式因子、不变因子、初等因子:高等代数中给定一个矩阵求它的不变因子主要就两种方法:化成Smith标准型、求出行列式因子。
|
知识点14: 几种特殊子空间:
① 不变子空间:是上一个线性变换,是的一个子空间,若,有,则是线性变换的一个不变子空间。
不变子空间的一些性质:
a. 零空间和整个空间都是的不变子空间,即 和 ;
b. 交集和并集仍是的不变子空间。即如果是的不变子空间,则和也是的不变子空间;
c. 如果和都是的不变子空间,则也是的不变子空间;
d. 如果是的不变子空间,则也是的不变子空间。这条性质可以推广到仍是的不变子空间;
e. 对于每个特征值 ,其对应的特征子空间是 的不变子空间。
② 特征子空间:上一个线性变换的属于特征值的所有特征向量+加零向量构成的子空间,即:
特征子空间的一些性质:
a. 特征子空间一定是不变子空间,一个线性变换,其特征值对应的特征子空间是的不变子空间,即其中的向量经作用后仍在该子空间内。
b. 不同特征值对应的特征子空间是两两直和的。因为特征向量属于不同特征值对应的特征子空间之间线性无关,故它们的直和构成整个向量空间。
c. 如果一个线性变换是对称矩阵,那么其特征子空间是正交的。也就是说,属于不同特征值的特征向量是正交的。
d. 把特征子空间的维数也称作对应特征根的几何重数,若一个矩阵的几何重数等于代数重数,就称这个矩阵是非亏损的,反之称为亏损的。
参考14.1:不变子空间 - 中文数学Wiki
参考14.2:高等代数中的各种空间 - 柿子君的文章 - 知乎
|
知识点15: 线性方程组有解:
一个线性方程组仅有零解的充分必要条件是该线性方程组的系数矩阵的行向量(或列向量)线性无关,即矩阵的秩等于未知量的个数。
具体来说,设线性方程组为,其中是一的矩阵,和是维和维列向量。则该线性方程组仅有零解的充要条件为,即的列向量线性无关。
|
知识点16: 谱半径的理解
📜 请问矩阵的谱半径该如何理解,谱半径有没有几何意义?
矩阵的谱半径可以理解为矩阵的所有特征值的绝对值的最大值。具体地,设是一个的矩阵,它的特征值为,则的谱半径定义为:
从几何意义上来看,矩阵的谱半径可以描述线性变换的“最大拉伸率”。设 是一个 维线性变换,如果对于所有向量 ,有 ,其中是一个常数,则称是的一个上界。而的谱半径就是所有上界中最小的一个。也就是说,矩阵的谱半径描述了的最大拉伸率,即所有向量长度的最大变化率。
需要注意的是,矩阵的谱半径并不一定等于矩阵的模长的最大值。矩阵的模长定义为,它表示在所有长度为的向量上,的最大拉伸率。而矩阵的谱半径是所有特征值的绝对值的最大值,因此它只和的特征值有关,而不是和的模长有关。
📚 矩阵谱半径有什么应用呢?
矩阵谱半径在控制理论、信号处理、网络分析、优化等领域都有广泛的应用。
① 在控制理论中,矩阵谱半径可以用于判断系统的稳定性。当矩阵的谱半径小于1时,系统是稳定的,否则是不稳定的。
② 在信号处理中,矩阵谱半径可以用于信号去噪。通常情况下,信号是由一个稳定的矩阵变换得到的,因此矩阵的谱半径可以用于判断信号的稳定性。如果信号的谱半径较小,可以通过对信号进行矩阵变换,使得信号的谱半径变小,从而实现信号去噪的目的。
③ 在网络分析中,矩阵谱半径可以用于衡量网络的中心性。一些重要的网络指标,如中心性和影响力等,可以通过矩阵谱半径来计算。
④ 在优化中,矩阵谱半径可以用于判断优化算法的收敛性。如果优化算法收敛,那么矩阵的谱半径应该小于1,否则算法不收敛。因此,可以根据矩阵谱半径的大小来选择合适的优化算法。
📀 谱半径的一些性质:
① 矩阵的2范数又可表示为谱半径的形式:
特别的,若是正规矩阵,则有。
② 设,则对上的任意矩阵范数都有:
并且是的所有范数的下确界。
③ 若对上的某一矩阵范数有,则就是可逆的。
④ 对于任意的阶矩阵,其谱半径不超过其所有元素的模的最大值,即。
⑤ 如果矩阵是幂零矩阵,即存在正整数,使得,那么。
⑥ 对于任意两个阶矩阵和,有。
⑦ 对于任意阶方阵,其谱半径等于的转置矩阵的谱半径,即。
⑧ 如果是一个实对称矩阵,那么等于的模最大的特征值的模,即。
⑨ 对于任意阶矩阵,都有,其中是矩阵的第个对角元素。
参考16.1:对范数、矩阵谱半径的通俗化理解 - CSDN
参考16.2:向量与矩阵的范数
参考16.3:「管理数学基础」1.7 矩阵理论:方阵特征值估计、圆盘定理、谱与谱半径
|
知识点17: 矩阵的常见分解:
|
具体内容 |
备注 |
定义及形式 |
对于n阶方阵,若存在n阶单位下三角矩阵和n阶上三角形矩阵,使得,则称其为矩阵的LU分解,也称为Doolittle分解。 |
是单位下三角矩阵,为非奇异上三角矩阵; |
计算方法 |
Gauss消元法 |
|
待定系数法 |
|
存在性 |
矩阵存在的充要条件是的所有顺序主子式都非奇异(行列式非零) |
矩阵不一定存在LU分解 |
唯一性 |
若矩阵存在LU分解,其分解不是唯一的(因为,注意,考虑此种情况时,和均不是单位上/下三角,但若其中一个是单位上/下三角,则分解是唯一的) |
但有如下定理: 当且仅当的顺序主子式时,可以唯一的分解为,其中和分别是单位上和单位下三角,是对角矩阵,,其中 |
应用 |
可用于求解线性方程组;也可以用于矩阵求逆; |
|
其他说明 |
说明1:虽然定义是可逆方阵(非奇异矩阵),但是LU分解不但可以应用于方阵也可应用于非方阵,LU分解不但可以用于非奇异矩阵,还可以用于奇异矩阵。 |
参考16.5 |
说明2:条件更弱的LU分解定理(选主元LU分解) 在LU分解算法中,称为主元,若,则算法无法进行下去;此外若值非常小,则因为舍入误差导致结果误差非常大。可通过选主元来解决此问题。选主元需要引入置换矩阵。 |
选主元LU分解也不是一定存在的; 详细内容参考16.1。 |
|
具体内容 |
备注 |
定义及形式 |
1、若实(复)非奇异矩阵能够化成正交(酉)矩阵与实(复)非奇异上三角矩阵的乘积,即; 2、设是实(复)矩阵,且其个列线性无关(列满秩),则可以分解为; 3、奇异阵也可以通过Givens、Householder变换法化为的形式,但是所化成的上三角矩阵是奇异的。 |
定义2中,其中是实(复)矩阵,且满足或(说明的列向量两两相互正交),是阶非奇异上三角矩阵。 |
计算方法
|
1、施密特(Schmidt)正交化方法 |
|
2、Givens变换方法 |
|
3、Householder变换方法 |
|
存在性 |
实际上任意矩阵都是可以进行QR分解的,但是我们一般考虑非奇异方阵和列满秩的矩阵求解QR分解。 |
|
唯一性 |
QR分解不唯一,但是对于阶实(复)非奇异方阵,除去相差一个对角元素的模长全等于1的对角矩阵因子外不考虑,可认为QR分解唯一。 |
如果是一个列满秩矩阵,并且的主对角元都为正数时,QR分解的结果唯一。 |
证明: 设矩阵有两个QR分解:,则有:,其中仍是可逆上三角矩阵,并且容易证明,因此为对角线元素模长为1的对角阵。 因此考虑上的影响,则, |
应用 |
QR分解被广泛应用于线性最小二乘问题的求解和矩阵特征值的计算。 |
|
其他说明 |
|
|
|
具体内容 |
备注 |
定义及形式 |
设,若存在矩阵和使得 |
式中为列满秩、为行满秩,它们的秩: |
计算方法 |
Hermite标准型(行最简型)方法求解、(具体参考笔记) |
|
存在性 |
任何非零矩阵一定存在满秩分解,证明参考:矩阵的分解:满秩分解和奇异值分解-CSDN博客 |
|
唯一性 |
满秩分解不唯一。 证:假设存在阶可逆方阵,则 |
|
应用 |
满秩分解用途很广,尤其是后期的对于广义逆的学习来说非常重要;满秩分解可以用于数据压缩:满秩分解、奇异值分解(SVD)原理总结 |
|
其他说明 |
|
|
|
具体内容 |
备注 |
定义及形式 |
矩阵特征值分解又可称作矩阵的对角化、谱分解,是将方阵分解为由其特征值和特征向量表示的矩阵积的方法。 对于一个秩为的方阵,应该存在个这样的特征值,完备形式为:
上面的式子可以写作
|
从变换的角度理解,从运动变换的角度理解,矩阵乘以向量可以分三步: 首先将这个向量使用特征向量组成的正交基向量进行分解; 然后目标向量在每个特征向量方向上的分量分别进行拉伸操作; 对所有特征向量方向上的拉伸结果进行合并。 |
计算方法 |
计算方法相对简单,就是特征值分解, |
|
存在性 |
不是任意方阵都存在特征值分解。 阶方阵可以做特征值分解的充要条件是其有
个线性无关的特征向量。 |
只要保证有个线性无关的特征向量即可,方阵不一定需要满秩,例如方阵 |
唯一性 |
特征值分解不是唯一的,但所有的特征值分解都会共享相同的特征值。特征向量的选择和缩放可能会不同,从而导致不同的特征向量矩阵和对应的特征值矩阵。 |
|
应用 |
|
|
其他说明 |
一般而言,方阵特征值分解后特征向量组成的矩阵一般是正交阵。 |
|
|
具体内容 |
备注 |
定义及形式 |
对于一个秩为的矩阵,必存在的正交阵、的正交阵和的矩阵,使得
其中,
|
,的特征值为:
称为矩阵的奇异值。
|
计算方法 |
第一步:求出的个特征值(并按照从大到小排列)和对应的标准正交的特征向量; |
|
第二步:取标准正交的特征向量构成正交矩阵,取正奇异值,即前个奇异值,即非零特征值开根号构成矩阵,,添加额外的0组成的矩阵 |
|
第三步:构成前个标准正交向量,其中 |
|
第四步:按照标准正交基扩充的方法,将扩充为维向量空间的标准正交基组成正交矩阵,请参考链接16.9通过例子来理解扩充基方法 |
|
第五步:写出SVD的分解结果即可: |
|
存在性 |
任何矩阵都可以进行上面的奇异值分解,它是方阵对角化的推广。 |
|
唯一性 |
一个矩阵的奇异值分解一定存在,但不唯一。 |
|
应用 |
参考:奇异值分解(SVD)有哪些很厉害的应用? - 叶小飞的回答 - 知乎 |
|
其他说明
|
矩阵的奇异值的个数等于的列数,的非零奇异值的个数等于 |
|
参考17.1:矩阵分解算法 - 博客园
参考17.2:矩阵的几种分解方式 - 加强版 - 二圈妹的文章 - 知乎
参考17.3:【矩阵论】矩阵的各种分解汇总 - ohanlon的文章 - 知乎
参考17.4:常见的几种矩阵分解方式 - bitcarmanlee的文章 - CSDN
参考17.5:非方阵LU分解 - Cliven的文章 - CSDN
参考17.6:矩阵与数值计算(2)——矩阵三角分解LU、PALU、Cholesky三角分解、QR分解 - 乔胤博的文章 - 知乎
参考17.7:【矩阵论】UR(QR) 分解 - 施密特正交化 - ohanlon的文章 - 知乎:行满秩矩阵的QR分解。
参考17.8:奇异值分解(SVD)的定义、证明、求法(矩阵分解——3. 奇异值分解(SVD)) - Iterator的文章 - 知乎
参考17.9:【矩阵论】矩阵的奇异值分解 - ohanlon的文章 - 知乎
参考17.10:【线性代数】矩阵的特征值分解(对角化、谱分解)- CSDN
|
知识点18: 齐次/非齐次微分方程组的解:
① 齐次微分方程组的解
对于如下形式的齐次微分方程组:
其中,,。
其解空间为:
有以下2个结论:
② 非齐次微分方程组的解
对于如下形式的非齐次微分方程组:
其中,。
设是方程一般解/通解,是方程的一个特解。
特解的求解一般是通过常数变异法:。最终可求得非齐次微分方程组的一个特解为:
综上,可得下面2条结论:
其中,为任意常数向量。
|
知识点19: 投影:
① 矢量向矢量投影:把矢量投影到矢量上
② 矢量向矩阵投影:把矢量投影到矩阵的列构成的空间中
③ 矩阵向矩阵投影:把矩阵向的列向量张成的子空间投影
④ 矩阵向矩阵补空间投影:把矩阵向的列向量张成的子空间的正交补空间投影
|
知识点20: 特征值与秩:
设方阵阶数为,特征值个数为,其中有重特征值,单个对应的无关特征向量个数为,方阵的秩为。
① 特征值个数(包括重根和复根)与方阵的阶数相等;
② 特征值个数 所有无关特征向量数之和(因为重特征值最多有个线性无关的特征向量);
③ 特征值个数与方阵的秩无关。
① 单个对应的无关特征向量个数与方阵的秩没有什么直接的关系,它们都小于等于方阵阶数。
① 当方阵可以相似对角化时(这里自然是包括了方阵为实对称矩阵的情况),。
因为, 所以。此时若,意味着对角阵有个不为零的特征值,即也有个不为零的特征值,进而得到有重特征值:
② 当方阵不可相似对角化时,。
首先,对于重特征值最多有个线性无关的特征向量,反过来说,同一特征值对应的线性无关的特征向量个数(设为t)。对于,有,所以,的线性无关特征向量个数,根据上一行的说法就有,的重数 ,即。
🧺 正交变换(正交矩阵)不改变秩、特征值、行列式、迹,另外它不改变向量的长度(保模长性质)。
参考20.1:特征值个数,特征向量个数与矩阵的秩之间有什么关系? - 知乎
|
知识点21: 范德蒙(Vandermonde)矩阵和范德蒙行列式:
🎫 Vandermonde 矩阵具有以下形式:
具有如上或者形式的矩阵称为范德蒙(Vandermonde)矩阵。
🏓 阶Vandermonde矩阵的行列式计算
例如:
🍰 范德蒙矩阵的秩
- 当时,矩阵的秩为,当且仅当所有的各不相等。
- 当时,矩阵的秩为,当且仅当至少个各不相等。
🏳🌈 范德蒙矩阵的应用
可应用于多项式最小二乘法拟合以及多项式插值。
参考资料21.1:范德蒙矩阵、范德蒙行列式 - 小时百科
|
知识点23: 奇异值分解(SVD)
矩阵对角化有很多应用:简化计算、解方程等等,但不是所有矩阵都可以对角化的,矩阵可对角化的条件参考本文知识点17_特征值分解和矩阵可对角化的充要条件 - 我思故我在的文章 - 知乎。可对角化矩阵例:对称矩阵。
对于一般的矩阵,有没有类似的操作?
① 回忆线性代数的知识:方程不一定有解,但是一定有解。
② 考虑方阵和,它们都是半正定矩阵,所以可以对角化而且特征值大于等于0。
方阵和可进行对角化:,也就有:
💦 猜测:找到正交矩阵和使得矩阵可以写成?其中是某种意义上的“对角”矩阵。
对于一个的实矩阵,则是一个的对称矩阵,是由的特征向量构成的中的正交归一基,对应的实特征值为,假设,则矩阵的奇异值定义的特征值的平方根:
引入如下两个不加证明的定理:
定理1:对于一个的矩阵,其秩满足:。
定理2:对于一个的实矩阵,其非0奇异值的个数等于矩阵的秩,
广义对角矩阵:矩阵
其中,是一个的对角矩阵,所有大于的行和列的元素均为0。
定理(SVD):矩阵的秩为。则存在一个形状如上的矩阵且的对角元是的前个(非零)的奇异值,的正交矩阵和的正交矩阵,而且以上矩阵满足关系:
推论1:是矩阵的特征向量,是矩阵的特征向量,即和分别是将和对角化的正交矩阵。
推论2:
① 是的正交归一基,;
② 是的正交归一基,;
③ 是的正交归一基,;
④ 是的正交归一基,;
推论3:和的非0特征值都相同。
数据压缩:假设,则:
这意味着可以只用、、三个子矩阵的总共个分量完全决定。
例如:图像压缩
先考虑灰度图像,可以用一个的矩阵描述,每个元素是该像素的灰度(0-255之间的整数,0是黑,255是白),如果,我们可以只储存或者传输、、(无损)。例如矩阵秩为1的时候我们只需要储存一个行向量和一个列向量,甚至可以把很小的奇异值当成零忽略,进一步压缩图片(有损)。
矩阵伪逆:由于的矩阵,则其伪逆可直接求得:
① 是投影到的矩阵。
② 是投影到的矩阵。
矩阵伪逆可以用来求解最小二乘问题:最小二乘的解为。
矩阵的模:(关于矩阵模的详细定义和性质请参考链接23.1)。
参考23.1:奇异值分解 - 颜文斌 - 清华大学(在线pdf文件)
参考23.2:矩阵之芯 SVD: 奇异值分解及其几何解释 - mathinside的文章
参考23.3:矩阵的奇异值分解与广义逆矩阵及其应用 - 知乎、一文学会,线性回归超全总结,让你成为高手! - 知乎:这两篇文章内容相似,简要提及了SVD的自由度问题。
|
知识点24: 主成分分析(PCA)
假设一组数据来源于个样本,其平均值,标准差。
标准差有个自由度,因为平均值也是一个自由度;标准差越大,数据越分散。
假设个样本,每个样本我们得到两个数据和(例所有同学的期中考试成绩和平时作业成绩,则协方差可定义为:。
协方差描述了和之间的相关性 —— 正相关,负相关。
将数据存在一个的矩阵中,每一行对应一种数据,每一列代表一个样本,将中心化之后的数据记为(由的每一个元素减去它所在行的平均值得到):
则协方差矩阵(covariance matrix)可定义为:
样本方差:,第种数据的标准差平方。:第种和第种数据的协方差;
总方差(totalvariance):。
一般来说数据和数据可能会有相关,也就是说它们之间的协方差不等于,主成分分析就是要找到原有数据的一系列线性组合作为新的数据,新数据之间的协方差为0。
的奇异值分解为,定义新的数据矩阵:
此时,计算可得新的数据矩阵的协方差为:
因为是对角矩阵,因此的数据之间的协方差为0,同时可得“新数据的方差 = 的奇异值平方/(n-1)”。
原数据矩阵:;
第列向量对应样本的数据;
新数据矩阵:
的第列向量对应样本的数据,这些数据由的分量决定:;
因为是正交矩阵,。
① 的非零奇异值的数量是的秩,到的新数据的方差是0;
② 所有的数据都在的个平面的交集上;
③ 所有数据点分布在一个维的空间中,这个空间由张成(是的正交归一基);
④ 如果第个奇异值很接近,说明数据很靠近平面。
主成分:,其中是所有数据变化最大的方向(对应的方差最大),次之……主成分是描述整组数据最重要的线性组合,而且互相独立;由于,所以虽然每个样本测了个数据,里面只有个是独立的。
都是维向量,每个分量对应一个样本:
第一主成分的数值:;
的第个分量是第个样本的第一主成分的值,同理的第个分量是第个样本的第个主成分的值;
是单位向量,所以每个分量的绝对值小于等于1,数据的分散程度取决于。
|
知识点26: Kronecker积和矩阵向量化(拉直)Vec的相关性质:
Kronecker积的相关定理:
定理1:设矩阵,则有。
定理2:设矩阵,则有。
定理3:设矩阵,则有。
定理4:若,则有。
矩阵的向量化Vec:
矩阵的,一般是按列拉直(也可按照行拉直,根据具体情况分析),将矩阵表示为排列成一个的列向量,即:
定理5:,。
假定,则这两个矩阵乘积的迹具有如下性质:
定理6:,,
定理7:设矩阵,则有。
推论7:设矩阵,则有,,。
参考26.1:矩阵Kronecker乘积性质与应用 - 豆丁
参考26.2:Kronecker积及矩阵论进阶 - 阿里多多的西瓜的文章 - 知乎第一弹、第二弹、第三弹
|
知识点27: 矩阵的特征值和奇异值:
设矩阵,其特征值为;
矩阵的特征值为;
矩阵的奇异值为。
|
知识点29: 矩阵核范数的定义:
矩阵的核范数记为,具体定义为:
其中,为矩阵的奇异值,也即,矩阵的核范数为奇异值之和。
|
线性代数中,向量空间的子空间的“和”与“直和”,这两个概念的区别是什么? - 知乎
https://www.zhihu.com/question/38577398
一些矩阵论的系统笔记或者博客:
【1】 高等代数葵花宝典
【2】 线性代数与矩阵论 - 个人博客 - 老齐
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 使用C#创建一个MCP客户端
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 按钮权限的设计及实现