P6 第二章 线性代数
注解:
- 张量----一个四方块代表一个数字
矩阵:
单位矩阵:
注解:
- L1范也叫曼哈顿距离、街区距离。
- 2范L2,也叫欧式距离。Lp中P=2的情况。
- p是无穷大,是切比雪夫距离。
- 各种各样的范数是闵可夫斯基距离取不同值的特例。
矩阵的分解是把一个矩阵分解成几个矩阵的乘积。
left singular vector of A:左奇异值
singular vector of A:奇异值本身
right singular vector of A:右奇异值
矩阵A分解成3个矩阵的乘积:
主成分分析:一种线性降维的算法,把高维空间的数据映射到低维。
下例是把二维的数据映射到一维空间上。二维数据映射到直线上。
主成分分析就是在降维的过程中找到一个映射的主方向,从而最大程度的保留高维空间信息。比如把一个人从三维拍成二维,从左往右拍还是从前往后拍能最大程度的保留三维信息呢?答案显然是后者。
例子中,红色的线是第一主成分,跟红色的线正交的黄色的线称为第二主成分。把二维散点拍到那条红色直线上,就能最大程度的保留它们在二维空间中的信息。
也可以把三维数据拍到二维数据上,或者把4维数据拍到3维、2维数据上。关键是要找到第一主成分和第二主成分,第1主成分和第2主成分对应的是协方差矩阵的特征值和特征向量。
PCA属于线性降维。
tSNE属于非线性降维。【数据在高维空间中隔的比较远,在低维度空间中隔的也应该比较远,数据在高维空间中隔的比较近,在低维度空间中隔的也应该比较近】
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理