随笔 - 1762  文章 - 0  评论 - 109  阅读 - 431万

P6 第二章 线性代数

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

注解:

  • 张量----一个四方块代表一个数字

 

 

 矩阵:

 

 

 

 

 

 

 

 

 单位矩阵:

 

 

 

 

 

 注解:

  1. L1范也叫曼哈顿距离、街区距离。
  2. 2范L2,也叫欧式距离。Lp中P=2的情况。
  3. p是无穷大,是切比雪夫距离。
  4. 各种各样的范数是闵可夫斯基距离取不同值的特例。

矩阵的分解是把一个矩阵分解成几个矩阵的乘积。

 

left singular vector of A:左奇异值

singular vector of A:奇异值本身

right singular vector of A:右奇异值

 矩阵A分解成3个矩阵的乘积:

 

主成分分析:一种线性降维的算法,把高维空间的数据映射到低维。

下例是把二维的数据映射到一维空间上。二维数据映射到直线上。

 

主成分分析就是在降维的过程中找到一个映射的主方向,从而最大程度的保留高维空间信息。比如把一个人从三维拍成二维,从左往右拍还是从前往后拍能最大程度的保留三维信息呢?答案显然是后者。

例子中,红色的线是第一主成分,跟红色的线正交的黄色的线称为第二主成分。把二维散点拍到那条红色直线上,就能最大程度的保留它们在二维空间中的信息。

也可以把三维数据拍到二维数据上,或者把4维数据拍到3维、2维数据上。关键是要找到第一主成分和第二主成分,第1主成分和第2主成分对应的是协方差矩阵的特征值和特征向量。

 

 

 

 PCA属于线性降维。

tSNE属于非线性降维。【数据在高维空间中隔的比较远,在低维度空间中隔的也应该比较远,数据在高维空间中隔的比较近,在低维度空间中隔的也应该比较近】

 

posted on   一杯明月  阅读(258)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示