math---线性代数の本质

一、线性空间

  1. 你有多个向量并且可以移除一个而不减小张成空间时,称为线性相关
  2. 在二维空间上,随便找两个向量(前提是不共线),则他俩可以张成整个平面
  3. 在三维空间,任意三个向量同理

二、矩阵线性变换与矩阵相乘

image-20231020174154736

image-20231020174205870

1、旋转

ai + bj ,其中 \(a^2+b^2 = 1\)

2、剪切/错切变换

i帽不变,j帽变

i+bj

3、复合变换

ai+bj

随便取值

image-20231020181109889

ps: 这个变换实际上都是基于直角坐标系的,两次变换都是基于直角坐标系

image-20231027104815233

三、行列式

1、行列式是描述其对应矩阵张成区域变化倍数的关系

2、如果行列式为0,说明矩阵所代表的变换将空间压缩到更小的维度上

3、行列式为负,就说明该矩阵变换翻转了平面

image-20231020224225385

image-20231020224206376

或者说在二维面下时j在i的左边(一开始是在右边)

image-20231020224320370

但是其绝对值还是决定着缩放的大小

三维下,行列式是平行六面体的体积,

行列式若为0,则说明,空间变换成了一个面或点

行列式为负,则说明不满足右手定理

image-20231020224850720

复合变换,行列式的计算

image-20231020225204575

对于行列式的相乘证明:

image-20231020225330045

很显然,就是对M1缩放,M2缩放

四、逆矩阵、列空间、零空间

线性方程组

image-20231026112420176

[x,y,z] 代表了所有能通过线性变换拟合到 向量 [-3,0,2]的向量

逆矩阵

image-20231026074847391

image-20231026074915293

image-20231026074929581

image-20231026074941584

image-20231026075023218

列空间

image-20231026075843904

image-20231026080356158

非方阵

矩阵关于不同维度之间的映射
image-20231026080259671

image-20231026080445244

image-20231026080618144

image-20231026080627552

五、点积和对偶性

image-20231026081513074

对偶性:

在数学领域中,对偶一般来说是以一对一的方式,常常通过某个对合算子,把一种概念、公理或数学结构转化为另一种概念、公理或数学结构:如果A的对偶是B,那么B的对偶是A。由于对合有时候会存在不动点,因此A的对偶有时候会是A自身。

image-20231026083358226

image-20231026083441711

image-20231026083450796

任何时候看到一个 2维映射为1维的向量,无论这个线性变换如何定义,在二维空间一定有一个向量与之相对应,这个就与“对偶性”相关

对于点积而言,向量仿佛是一个特定变换的概念性记号(把向量当成线性变换的一个载体)

因为它并不只数值的相加

六、叉积

叉积介绍

点乘,也叫数量积。结果是一个向量在另一个向量方向上投影的长度,是一个标量。

叉乘,也叫向量积。结果是一个和已有两个向量都垂直的向量

行列式的值就是叉乘的结果,行列式的一切运算性质可用于叉乘

真正的叉乘还要加上方向,比如

image-20231026085223242

image-20231026085255184

两个向量的叉积公式本来是这样的:

数值公式:

image-20231026085745782

但为了计算方便,高数上给的两个向量的叉积的计算公式是这样:

image-20231026085518682

和斯托克斯公式很像

空间向量的叉积计算原理---\(\begin{bmatrix}v_1\\v_2\\v_3\end{bmatrix}\times\begin{bmatrix}w_1\\w_2\\w_3\end{bmatrix}=\det\left(\begin{bmatrix}\hat{\imath}&\color{red}{v_1}&w_1\\\hat{\jmath}&\color{red}{v_2}&w_2\\\hat{k}&\color{red}{v_3}&w_3\end{bmatrix}\right)\)

前置知识

1、首先要明白a向量与b向量的叉积为c一定垂直于a,b两向量,并且在数值上等于a,b俩向量张成的平行四边形的面积,三维下同理

2、三个向量的叉乘等于一个平行六面体的体积

\[\vec{\mathbf{u}}\times\vec{\mathbf{v}}\times\vec{\mathbf{w}}=\det\left(\begin{bmatrix}u_1&v_1&w_1\\u_2&v_2&w_2\\u_3&v_3&w_3\end{bmatrix}\right) \]

证明: 求 向量A(v1,v2,v3)与B(w1,w2,w3)的叉乘

  1. 首先引入 向量C(x,y,z),使其与A,B构成三维矩阵D,此矩阵的行列式等于该三个向量围城的平行六面体的体积

同时引入向量P(p1,p2,p3),使其点乘C,代表C(对偶于)从三维空间到一维空间的变换

image-20231026101412097

  1. 此时发现D矩阵的行列式相当于以 A(v1,v2,v3)与B(w1,w2,w3)作为平行四边形的底,以C(x,y,z)关于A,B垂线的投影作为平行四边形的高

而对于左边的P·(x,y,z),p就只能是垂直于A,B的垂线,且数值大小等于A,B围城的平行四边形的面积,这与我们前面提到的前置知识相吻合,也就是说P就可以做A,B的叉积

七、基变换 (相似理论)

在坐标系之间对单个向量的描述进行相互转化

用我们的网络去表示她的向量

image-20231026104116705

与矩阵相乘很像

反过来:用她的网格表示我们的向量

需要取逆

之前:

image-20231026104724756

之后:

image-20231026104738516

image-20231026104839011

记住都是左乘

用她的语言描述在其网格内变换的向量 (矩阵相似)

上面我们是用左乘矩阵的方式来得到她的向量在我们网格下的位置,或者我们的向量在她网格下的位置

下面我们要讲的是,她的矩阵经过线性变换后在她网格下的位置

比如,她的基为:H = \(\begin{bmatrix}2&-1\\1&1\end{bmatrix}\) ,其上有一向量S = \(\begin{bmatrix}-1\\2\end{bmatrix}\),我们想使该向量左旋90°,即X = \(\begin{bmatrix}0&-1\\1&0\end{bmatrix}\)

那么我们可以

  1. 先获得向量在我们基下的坐标: 即 H * S => \(\begin{bmatrix}2&-1\\1&1\end{bmatrix}\begin{bmatrix}-1\\2\end{bmatrix}\)

  2. 将其在我们基下旋转90°:得到向量 SS = \(\begin{bmatrix}0&&-1\\1&&0\end{bmatrix}\begin{bmatrix}2&&-1\\1&&1\end{bmatrix}\begin{bmatrix}-1\\2\end{bmatrix}\)

  3. 再向量SS转化为在她的基下的向量: \(\begin{bmatrix}2&-1\\1&1\end{bmatrix}^{-1}\begin{bmatrix}0&\color{red}{-1}\\1&\color{red}{0}\end{bmatrix}\begin{bmatrix}2&-1\\1&1\end{bmatrix}\begin{bmatrix}-1\\2\end{bmatrix}\)

    即可得到最后的位置

image-20231026110529489

前三个矩阵都是固定的,而第四个向量是可变的,转化一下可以得到一个固定类似公式的转化矩阵:

image-20231026110948096

前三个矩阵的复合即为线性变化矩阵,它接收用詹妮弗语言描述的向量,并输出用詹妮弗语言描述的变换后的向量

这三个矩阵的结果设为 \(\Lambda\),她的基设为P,线性变换(左旋90°)设为A

即有 \(P^{-1}AP = \Lambda\)

\(\Lambda\) 代表在她坐标系下旋转90°的情况

A代表在我们坐标系下旋转90°的情况,这俩是相似的!!!

image-20231026111153768

八、特征值与特征向量 (相似对角化)

特征值与特征向量的引出

对于一个基变换:

image-20231026113105436

在这个变换中基本上所有的向量都偏移了其原来张成的空间的位置,但某些特殊向量的确留在它们张成的空间里,这意味着这个矩阵变换对它的作用仅仅是拉伸或者压缩而已

对于该变换来讲,有 (1,0)向量所在直线与 (-1,-1)所在直线(注意是直线,怪不得之前求特征向量的时候总会带上k)仅仅被拉伸或压缩,没有被旋转

image-20231026113352258

这俩就是特征向量,每个特征向量都有一个所属的值,被称为“特征值”,即衡量特征向量在变换中拉伸或压缩比例的因子(这也是特征值的乘积等于行列式的原因,缩放倍数)

使用价值

考虑一个三维空间中的旋转,如果你能找到这个旋转的特征向量,那么你找到的就是旋转轴! 而且把一个三维旋转看成绕某个轴旋转一定角度,要比考虑相应的3×3矩阵直观得多

比如旋转矩阵:

image-20231026113919651

求解特征向量/特征值的方法

image-20231026114452936

用A对特征向量v进行线性变化,特征向量v只会回被拉伸或者缩短,所以用Av=λ v

转化一下:

image-20231026115025443

我们现在需要找到合适的λ,使A-λ这个矩阵的张成空间收缩,也就是行列式的秩变少,这也是为什么我们在计算的时候常常使用行列式的值来计算,实际上用行变换的线性变换也可以

求特征向量:

image-20231026115538519

需要注意的是二维线性变换不一定有特征向量

比如90°旋转,其张成的空间中的向量都在变换,故没有特征值与特征向量

:

image-20231026115827210

没有实数解表示没有特征向量

特征基 (相似对角化)

我们的基向量恰好是特征向量:

x轴变为-1倍,y变为2倍

image-20231026120545430

这种矩阵是对角矩阵,其性质在计算过程非常好用

但,遗憾的是,我们大多数的矩阵变换的基向量都不是特征向量,不过我们可以变换我们的坐标系使这些特征向量为基向量,即用特征向量做基 ,使基变换后的坐标系相对于矩阵变换是对角的矩阵变换(因为特征向量它所处的坐标系的基向量在变换中只进行了缩放,故以特征向量做基可变换为对焦矩阵!!!)

这就涉及当上节的基变换了!!!

假设 A是我们的变换矩阵,P是变换矩阵的特征向量组成的矩阵,我们变A所属的左边系为以P矩阵为基的左边系,即:

\(P^{-1}AP = \Lambda\) ,其中λ为特征值

注意,前提是特征向量够组成一个矩阵

九、抽象向量空间

1、线性运算

即满足一下条件的L()

L(A+B) = L(A)+L(B)

L(kA)=kL(A)

2、函数求导是线性变换

那我们可以把多项式求导转化成矩阵求导

image-20231027080748679

image-20231027081854584

十、用几何的角度理解克莱姆法则

前置知识---正交变换

image-20231027083051988

image-20231027083109925

它们使基向量在变换后依然保持单位长度且相互垂直,可以想象成旋转矩阵,相当于作刚体运动没有拉伸压缩或变形

image-20231027083813092

变换后的两向量相乘 == 变化前的俩向量相乘 => 正交变换

前置知识---使用行列式表示向量坐标

image-20231027084422153

image-20231027084408253

image-20231027084455597

image-20231027084507227

image-20231027084530487

上面这一部分告诉了我们,输入向量(x,y,z)与基坐标i,j组成的平行六面体体积就是z

同理对于二维,输入向量(x,y)与基向量i所组成的平行四面体,其有向面积就是输入向量的y坐标

克莱姆法则

那么我们进行线性变换 \(\left[\begin{matrix}2&-1\\0&1\end{matrix}\right]\) 后区域面积值的伸缩比例等于给定矩阵的行列式值。原来基向量i和,[x,y]围成的面积是y,现在变成了Area=det(A)y

因此就有:

\[y=\frac{Area}{\det(A)}=\frac{\det(\begin{bmatrix}2&4\\0&2\end{bmatrix})}{\det(\begin{bmatrix}2&-1\\0&1\end{bmatrix})}=2\:. \]

至于分子Area为什么这么构造,是因为我们之前的图形是这样的:

是(x,y)关于i基的平行四边形,其底的大小为单位1(若是关于j基的,高就为单位1)!

image-20231027091912502

变换之后是这样的:

image-20231027092044958

显而易见 经过 \(\left[\begin{matrix}2&-1\\0&1\end{matrix}\right]\) 的变换后,原平行四边形的底从 i基变成了 \([2,0]^T\)

那么求Area这个平行四边形的面积就是 \(y=\frac{Area}{\det(A)}=\frac{\det(\begin{bmatrix}2&4\\0&2\end{bmatrix})}{\det(\begin{bmatrix}2&-1\\0&1\end{bmatrix})}=2\:\)

image-20231027092256666

求x也是同理:

image-20231027093009570

总结

  1. 求y的话,以i为基,y为研究对象
  2. 构造[x,y]与i基组成的平行四边形的面积与经过矩阵A变换后的平行四边形面积,[x,y]与i基组成的平行四边形的面积就等于变换后的平行四边形面积比上变换矩阵A的平行四边形面积
  3. 使用 y 表示以i为基底的平行四边形面积
  4. 又A变换后的平行四边形面积可求,并且矩阵A是给出的,其平行四边形面积也可求,故可以求出y
  5. -------------------上面是求y,下面求x-------------------

十一、以几何的角度理解二次型の我的见解

参考: https://www.matongxue.com/madocs/228/

二次型主要解决多元二次函数的问题

前提知识

1、对于一元二次函数,我们只改变一次项与常数项是不会改变函数的图像的

动图

2、对于二元二次函数也是这样:

动图

他们的形状没有改变,那么代表这个图形的各种属性都没有改变(如面积,周长之类的)

动图

3、圆的二次型

一个单位圆的二次型表示是这样的:

\(\begin{bmatrix}x&y\end{bmatrix}\begin{bmatrix}1&0\\0&1\end{bmatrix}\begin{bmatrix}x\\y\end{bmatrix}=1\)

它以x,y轴作为基

img

4、椭圆的二次型

img

5、双曲线的二次型

img

可以发现,圆、椭圆、双曲线都是线性相关的

二次型对于几何图形的改变

我们有这样歪着的椭圆:

img

图中表示的是该椭圆以 x,y为基的图形

我们把其正交分解

$A = Q^T \Lambda Q $

img

img

可以得到上图这个图形,上面这个图形是以\((-\frac{\sqrt{2}}2,\frac{\sqrt{2}}2)作为x,(\frac{\sqrt{2}}2,\frac{\sqrt{2}}2)\)作为y基的图形

并且,由于是Q是正交的,故以Q中的向量做基,只会旋转坐标轴,不会压缩坐标轴,故\(\Lambda\)与A的唯一区别就是坐标轴被旋转了 几度

我们完全可以把对于A的研究转化成对于\(\Lambda\)的研究,以此大大简化研究难度

比如我们完全可以把

$ y^2+x y+x^2=1$ 转化为 \(1.5 x^2+0.5 y^2=1\) 来处理:

image-20231028151635420

=>

image-20231028151643649

$ y^2+x y+x^2=1$ 的特征值是: 1.5、0.5;特征向量是: [0.707,0.707],[0.707,-0.707]

正定

正定的定义

image-20231028152103469

正定、半正定、负定的例子

正定

img

半正定

img

不定:

img

十二、其他的一些补充(持续补充...

1、以几何的角度理解 AB=BA,且A有n个互不相等的特征值,则A的特征向量都是B的特征向量

非几何角度的证明过程:

image-20231109152247775

几何角度的理解:

首先从$\begin{pmatrix} 1 & 1 \ 0 & 1 \end{pmatrix} * \begin{pmatrix} 0 & -1 \ 1 & 0 \end{pmatrix} * \begin{pmatrix} 1 \ -1 \end{pmatrix} $ 开始

我们设A = \(\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\),B = \(\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\) ,\(s = \begin{pmatrix} 1 \\ -1 \end{pmatrix}\)

有A*B * s如下

image-20231109152456453

而如果我们采用 B * A * s:

image-20231109154157382

可以发现得到的向量结果大不相同,其本质原因是我们的基底变的不一样了,前者的基底分别是(-1,0)、(1,1);而后者的基底是(-1,1)、(0,1)。

如果A*B或B*A前后变化的基底一样的话,对向量s的变化结果是肯定一样的,这就引出了 "则A的特征向量都是B的特征向量" (因为在相似变换的时候特征向量就是基底)

posted @ 2023-10-27 10:04  TLSN  阅读(97)  评论(0编辑  收藏  举报