机器学习的数学基础【线性代数篇】
1 长度的定义#
1.1 范式(Norm)与长度#
范式是一个将数据从N维空间中映射到一维实数空间内的函数,范式是计算向量长度的规则,经由范式求解出的实数就是某一范式下对应的实数,它满足以下三个条件:
1.2 范式的几种变体#
以下是范式的四种变体,最右侧展示的是每一种范式的条件下,二维空间内单位圆的可视化图像。圆包括圆心和半径,半径到圆心距离(长度受范式定义变化的影响,因此其形态与常规认知的单位圆有差别)相等的点构成的集合是圆,无论形态怎么样,只要满足该定义的几何图形就是圆。
2.1 Positive Definite Matrices(正定矩阵)#
正定矩阵: 对于一个的实值对称矩阵 ,如果对于所有的非0向量 都满足 ,那么该矩阵就是一个正定矩阵。
特性:
的特征值 是一个正值。
存在一个下三角矩阵 , 中的每个元素都大于0,并且 中的各列严格正交,可以将 进行分解, 这叫cholesky decomposition,克列斯基分解。
2.2 Eigenvalues and Eigenvectors(特征值和特征向量)#
2.2.1 定义#
对于给定的一个线性变换(从空间V转换到空间V)A,如果非零向量 满足特征方程:
,其中 是标量。 被称为线性变换 对应于 x 的特征值。
2.2.2 可视化#
实际上,特征值以特征向量为核心,当我们定义好向量的模时,以该向量的端点画圆,会发现,特征值、线性变化A、特征向量之间仅在椭圆的长轴和短轴处产生这种联系,特征向量指示的方向,为椭圆的长短轴方向。
2.3 Diagonalization(矩阵的对角化)#
对于一个矩阵 , $ {\lambda}1 , \lambda_2,..., \lambda_n q_1, q_2, ..., q_n A A Q \Lambda Q^{\top} $,其中特征向量就是主成分。
2.4 decomposition(矩阵分解)#
2.4.1 Cholesky decomposition#
Reference:https://www.qiujiawei.com/linear-algebra-11/
2.4.2 QR decomposition#
1 基、标准正交基
2 施密特正交化与QR分解
Reference:https://dorianzi.github.io/2019/03/04/matrix-QR-decomposition/
2.5 Singular Value Decomposition (SVD,奇异值分解)#
作者:Arkon
出处:https://www.cnblogs.com/arkon/p/16459412.html
版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 地球OL攻略 —— 某应届生求职总结
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 提示词工程——AI应用必不可少的技术
· .NET周刊【3月第1期 2025-03-02】