刷新
从零开始:基于 PyTorch 的图像分类模型

博主头像 摘要:本文详细记录了使用 PyTorch 从零搭建一个图像分类模型的过程,涵盖卷积神经网络(CNN)、数据预处理、模型设计、训练调试与优化。通过对 CIFAR-10 数据集的处理实践,结合经典文献和 2025 年最新研究趋势,深入探讨了技术细节,并辅以完整实践源码的过程和结论。我选择用 PyTorc ...

微积分笔记05:矩阵求导在深度学习中的应用

博主头像 微积分笔记05:矩阵求导在深度学习中的应用 5.1 算法简述 设存在一张像素大小为\(\sqrt n \times \sqrt n\)的样本图片,即该图片总像素个数\(=n\) 现需采用神经网络对其进行识别,过程如下: (1)生成向量\(X_{1\times n}\): 设存在向量\(X_{1\ti ...

联邦学习:去中心化数据下的深度网络优化

博主头像 本文分析《Communication-Efficient Learning of Deep Networks from Decentralized Data》,聚焦联邦学习在去中心化数据中的通信优化,探讨高效训练深度网络与数据隐私保护的方法。这不仅为AI与安全应用奠基,还为未来与区块链的融合提供潜力... ...

微积分笔记03:多元函数的极值

博主头像 微积分笔记03:多元函数的极值 3.1 多元函数存在极值的必要条件 设存在函数\(f(x,y)\),若该函数在点\((x_0,y_0)\)处具有偏导数,则有: \[\tag{1} f(x,y)存在极值 \Rightarrow \begin{cases} f'_x(x_0,y_0)=0\\ f'_y( ...

微积分笔记01:方向导数与梯度

博主头像 微积分笔记01:方向导数与梯度 1.1 方向导数 1.1.1 方向导数引入 设二维坐标系中存在点\(P(x_0,y_0)\),且存在某一方向\(l\),\(l\)与\(x\)轴夹角为\(\alpha\),\(l\)与y轴夹角为\(\beta\) 若点\(P\)沿方向\(l\)移动了t个单位距离后得到 ...

线性代数笔记20.SVD分解及其应用

博主头像 20.SVD分解及其应用 20.1 奇异值的概念 设存在复数矩阵\(A_{mn}\),且\(R(A)=r\) 则对矩阵\((A^H\cdot A)_{nn}\)的特征值进行分析如下: 设存在n阶行向量\(x\),则可将\((A^H\cdot A)_{nn}\)转换为二次型,可得: \[\qquad ...

依存结构与依存分析笔记 (CS224N-3)

博主头像 依存结构 与编译器中的解析树类似,NLP中的解析树是用于分析句子的句法结构。使用的结构主要有两种类型——短语结构和依存结构。短语结构文法使用短语结构语法将词组织成嵌套成分。后面的内容会展开对它做更详细的说明。我们现在关注依存语法。 句子的依存结构展示了单词依赖于另外一个单词 (修饰或者是参数)。词与 ...

10 卷积神经网络CNN原理

博主头像 1. 全连接层 前文中我们讨论的几乎都是全连接层,也就是在层间,每个神经元都与前一层的所有神经元相连接,如图: 也就是每层的每个feature,都与前一层所有features相关联,是前一层所有features乘以一个权重矩阵W得来的。(这里为了简化理解,我们暂不考虑bias,activation ...

线性代数笔记19. 矩阵对角化-矩阵的正定性

博主头像 19. 矩阵对角化-矩阵的正定性及其应用 19.1 矩阵的正定性 设存在二次型:\(f(x)=x^T\cdot A\cdot x\),其中\(A\)为对称阵 19.1.1 定义 对于\(f(x)\)及\(A\)有: 正定/负定 \[若 f(x)>0且x\neq0,则对称阵A是正定的,且f(x)称为正 ...

学习理论:单阶段代理损失的(H, R) - 一致界证明

博主头像 我们在上一篇博客中介绍了弃权学习的基本概念和方法,其中包括了针对多分类问题的单阶段预测器-拒绝器弃权损失L_{abst}。设l为在标签Y上定义的0-1多分类损失的代理损失,则我们可以在此基础上进一步定义弃权代理损失L。在上一篇博客中,我们还提到了单阶段代理损失满足的(H, R)-一致性界。不过,在上... ...

线性代数笔记18. 矩阵对角化-二次型

博主头像 18. 矩阵对角化-二次型 18.1 二次方程的标准化思想 在解析几何中,对于二次曲线: \[ax^2+bxy+cy^2=1 \]若需将其标准化,则可通过坐标旋转变换: \[\begin{cases} x=x'cos\theta-y'sin\theta\\ y=x'sin\theta+y'cos\t ...

线性代数笔记17.矩阵对角化-对称阵压缩

博主头像 17.矩阵对角化-对称阵压缩 17.1 对称阵压缩的思想 设存在n阶对称阵A 现需对A中元素进行存储,则由对称阵性质知,A中有效元素个数=\(\frac{n\cdot(n+1)}{2}\),即共需存储\(\frac{n\cdot(n+1)}{2}\)个元素 而由矩阵对角化性质可知,对于n阶对称阵A, ...

09 深度神经网络框架的基础:自动微分

博主头像 当神经网络的层数增加,结构变复杂后,如果只用纯python(再加Numpy)来实现,代码将变得异常复杂,且难以阅读和调试。此时,就需要引入一些著名的深度学习框架了,比如PyTorch, TensorFlow等。 运用这些框架,你往往只需要定义一个神经网络的架构,反向传播过程则是自动完成的,你无需手动 ...

线性代数笔记16. 矩阵对角化-相似矩阵

博主头像 16.矩阵对角化-相似矩阵 16.1 相似矩阵 16.1.1 相似矩阵的定义 设存在n阶矩阵A、B,且存在可逆矩阵P,使: \[\tag{1} P\cdot A\cdot P^{-1}=B \]则称\(矩阵B是A的相似矩阵\),或\(矩阵A与矩阵B相似\)。 称\(P\)为\(相似变换矩阵\) 称\ ...