弱智的 线性代数 学习笔记
一些概念
基:组成一个空间的线性无关的一个向量集。比如 就是一组基。
基向量:组成基的向量。
坐标:我们可以理解为对于一个向量我们基里面的每个基向量构成这个向量的系数。比如平面直角坐标系中的 就表示 。
线性相关:一个向量可以用一个基来组成,我们则称这个向量与这个基线性相关。
张成:对应一个基的能构成的空间,比如上面那个基的张成就是平面直角坐标系。
线性变换:指的是对于一个空间进行变化,把每个点都进行相同的旋转、拉升,但是我们的基不变,所以我们之后坐标记录的是实际上是相对于平面直角坐标系的坐标,因为这样不需要记录基。
基变换:指的是我们对于一个基进行变化,我们的坐标因为是相对于基的系数,所以这里虽然位置没有实际上的变化,但是基变了,所以坐标可能会变。
行列式:指的是一个空间变化之后单位空间的面积与之前的面积之比。注意,这里的面积是矢量。虽然在高维空间我们并不知道面积正负的实际含义。
特征向量/特征值:指的是对于一个线性变化,如果有一个向量使得变化之后效果只有拉伸,那么我们就说该向量是该线性变化的特征向量,而你的特征值就是你特征向量在该线性变化作用之后的拉伸比率。
秩:一个线性变化的列向量张成的空间的维度。如果一个线性变化的秩能够达到最大维度(对于一个 的矩阵最大列空间维度就是 ),那么我们就可以说该矩阵是满秩的。
另外一些东西
举一点,线性变换的例子吧。比如我们现在的坐标是 ,那么我们进行空间变换,实际上点的相对关系并没有改变,所以我们假设基向量变化后为 ,那么我们变化之后的坐标就是 。我们如果将 表示成向量:, 表示成向量 ,那么我们新的坐标就是 ,那么我们就可以表示成:
这是同维度的转换,我们考虑一个 的矩阵乘上一个 的向量是什么,如果 那就是把这个向量进行了压缩,如果 那就是把这个向量拉向高维度。不过你可以发现的是一个二维空间上的线性变换变换之后仍是三维空间的一个面。由上面我们也可以看出矩阵乘法具有结合律但是并不存在交换律。
关于行列式的话,首先我们可以知道它肯定是对于一个矩阵的(笑)。其次我们可以看出的是因为我们是对于一个单位矩阵的面积(体积?)变化比率就是对于任意空间的面积比率,可以用微元法之类想。不过面积的正负之类的我自己也不是太懂它的含义。
对于一个向量 ,我们假设有个线性变化 ,那么 就是 经过线性变化之后的坐标,假设为 ,如果我们想要变回来我们直接右乘一个 就行了,因为我们 。当你 你并没有办法求出逆矩阵,因为你对于一个零空间你无论如何操作都没有办法还原其信息。但是没有逆矩阵并不代表类似于 的方程就不可解,因为很显然你可以使用高斯消元进行求解。
基变化的话似乎和线性变化差不多,不过我们这次是变化了我们的基,并没有变化我们的点。所以假设我们现在基是 ,那么我们 变到平面直角坐标系的坐标就是 ,我们也可以写成矩阵形式,每个列向量就是一个基向量。那么,我们从平面直角坐标系转到我们新的基就是右乘这个的逆即可。
考虑将上面的那个矩阵设为 ,定义一个线性变化 ,那么我们考虑设 表示的是相同的变化在新基下我的变化规律,那么我们存在以下关系:
以下面那个式子为例,我们考虑 ,那么就是先变成在新基下面的坐标,再进行线性变化,然后再变回来,又因为在方阵情况下 与 互为逆,所以我们也可以推出上面那个式子。
考虑一下我们如何求特征向量。首先我们知道对于 如果 是特征向量,那么我们知道一定存在 使得满足:
那么,如果 或是 即可。所以当我们知道 时我们就可以列出关于 的多项式方程,进而解出 。
一些问题
Perpetual Subtraction#
Solution#
不难发现我们就是要算出 ,其中 就是:
我们可以对于 求出它的特征向量 构成的基变换矩阵,因为这种情况下我们的 就是 的对角线。然后我们 ,我们后面的部分就可以直接使用多项式乘法进行优化。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 地球OL攻略 —— 某应届生求职总结
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 提示词工程——AI应用必不可少的技术
· .NET周刊【3月第1期 2025-03-02】