摘要: 这部分我们从有限维扩展到无限维,在无限维空间中线性代数依然有效。首先,我们来回顾一下,我们一开始是以向量、点积和线性组合进行展开的。现在我们开始将这些基本的概念转化到无限维的情况,然后再继续深入探索。 一个向量有无限多的元素是什么意思呢?有两种答案,都非常好。 向量变成 $\boldsymbol v 阅读全文
posted @ 2019-11-26 22:07 seniusen 阅读(1108) 评论(0) 推荐(0) 编辑
摘要: 这一部分我们关注正的矩阵,矩阵中的每个元素都大于零。一个重要的事实: 最大的特征值是正的实数,其对应的特征向量也如是 。最大的特征值控制着矩阵 $A$ 的乘方。 假设我们用 $A$ 连续乘以一个正的向量 $\boldsymbol u_0=(a, 1 a)$, $k$ 步后我们得到 $A^k\bold 阅读全文
posted @ 2019-11-26 22:05 seniusen 阅读(3277) 评论(0) 推荐(0) 编辑
摘要: 1. 图 一个图由一系列节点以及连接它们的边组成, 关联矩阵 (incidence matrix)则告诉我们 $n$ 个顶点是怎么被 $m$ 条边连接的。关联矩阵中的每个元素都是 0,1 或者 1,在消元过程中这也依然成立,所有的主元和乘数都是 $\pm1$。因此分解 $A=LU$ 也只包含 0,1 阅读全文
posted @ 2019-11-26 22:03 seniusen 阅读(737) 评论(0) 推荐(0) 编辑
摘要: 这部分我们通过选择更好的基底来产生更好的矩阵。当我们的目标是对角化矩阵时,一个选择可以是一组特征向量基底,另外一个选择可以是两组基底,输入基底和输出基底是不一样的。这些左右奇异向量是矩阵四个基本子空间中标准正交的基向量,它们来自于 SVD。 事实上,所有对 $A$ 的分解都可以看作是一个基的改变。在 阅读全文
posted @ 2019-11-26 22:00 seniusen 阅读(852) 评论(0) 推荐(0) 编辑