微积分笔记03:多元函数的极值 3.1 多元函数存在极值的必要条件 设存在函数\(f(x,y)\),若该函数在点\((x_0,y_0)\)处具有偏导数,则有: \[\tag{1} f(x,y)存在极值 \Rightarrow \begin{cases} f'_x(x_0,y_0)=0\\ f'_y( ...
微积分笔记02:多元函数的泰勒展开式&海森矩阵 2.1 二元函数的n阶泰勒展开式 设二维坐标系中存在点\((x_0,y_0)\)及其邻域内的某个点\((x_0+\Delta x,y_0+\Delta y)\) 设存在函数\(z=f(x,y)\),且\(f(x,y)\)在点\((x_0,y_0)\)的 ...
设备端可离线不联网Android 人脸识别、动作及近红外IR活体检测、人脸图质量检测以及人脸搜索(1:N和M:N),快速集成实现人脸识别,人脸搜索功能 ...
微积分笔记01:方向导数与梯度 1.1 方向导数 1.1.1 方向导数引入 设二维坐标系中存在点\(P(x_0,y_0)\),且存在某一方向\(l\),\(l\)与\(x\)轴夹角为\(\alpha\),\(l\)与y轴夹角为\(\beta\) 若点\(P\)沿方向\(l\)移动了t个单位距离后得到 ...
20.SVD分解及其应用 20.1 奇异值的概念 设存在复数矩阵\(A_{mn}\),且\(R(A)=r\) 则对矩阵\((A^H\cdot A)_{nn}\)的特征值进行分析如下: 设存在n阶行向量\(x\),则可将\((A^H\cdot A)_{nn}\)转换为二次型,可得: \[\qquad ...
依存结构 与编译器中的解析树类似,NLP中的解析树是用于分析句子的句法结构。使用的结构主要有两种类型——短语结构和依存结构。短语结构文法使用短语结构语法将词组织成嵌套成分。后面的内容会展开对它做更详细的说明。我们现在关注依存语法。 句子的依存结构展示了单词依赖于另外一个单词 (修饰或者是参数)。词与 ...
1. 全连接层 前文中我们讨论的几乎都是全连接层,也就是在层间,每个神经元都与前一层的所有神经元相连接,如图: 也就是每层的每个feature,都与前一层所有features相关联,是前一层所有features乘以一个权重矩阵W得来的。(这里为了简化理解,我们暂不考虑bias,activation ...
下载地址:https://pdfs.top/book/鸢尾花书系列:从加减乘除到机器学习.html。《鸢尾花书系列:从加减乘除到机器学习》是姜伟生博士编写的机器学习从入门到精通合集,旨在帮助读者从编程基础到机器学习掌握关键技能。每本书内容简洁,适合不同阶段的学习者,帮助读者快速上手并理解核心概念。豆... ...
19. 矩阵对角化-矩阵的正定性及其应用 19.1 矩阵的正定性 设存在二次型:\(f(x)=x^T\cdot A\cdot x\),其中\(A\)为对称阵 19.1.1 定义 对于\(f(x)\)及\(A\)有: 正定/负定 \[若 f(x)>0且x\neq0,则对称阵A是正定的,且f(x)称为正 ...
下载地址:https://pdfs.top/book/鸢尾花书系列:从加减乘除到机器学习.html。《鸢尾花书系列:从加减乘除到机器学习》是姜伟生博士编写的机器学习从入门到精通合集,旨在帮助读者从编程基础到机器学习掌握关键技能。每本书内容简洁,适合不同阶段的学习者,帮助读者快速上手并理解核心概念。豆... ...
我们在上一篇博客中介绍了弃权学习的基本概念和方法,其中包括了针对多分类问题的单阶段预测器-拒绝器弃权损失L_{abst}。设l为在标签Y上定义的0-1多分类损失的代理损失,则我们可以在此基础上进一步定义弃权代理损失L。在上一篇博客中,我们还提到了单阶段代理损失满足的(H, R)-一致性界。不过,在上... ...
18. 矩阵对角化-二次型 18.1 二次方程的标准化思想 在解析几何中,对于二次曲线: \[ax^2+bxy+cy^2=1 \]若需将其标准化,则可通过坐标旋转变换: \[\begin{cases} x=x'cos\theta-y'sin\theta\\ y=x'sin\theta+y'cos\t ...
17.矩阵对角化-对称阵压缩 17.1 对称阵压缩的思想 设存在n阶对称阵A 现需对A中元素进行存储,则由对称阵性质知,A中有效元素个数=\(\frac{n\cdot(n+1)}{2}\),即共需存储\(\frac{n\cdot(n+1)}{2}\)个元素 而由矩阵对角化性质可知,对于n阶对称阵A, ...
当神经网络的层数增加,结构变复杂后,如果只用纯python(再加Numpy)来实现,代码将变得异常复杂,且难以阅读和调试。此时,就需要引入一些著名的深度学习框架了,比如PyTorch, TensorFlow等。 运用这些框架,你往往只需要定义一个神经网络的架构,反向传播过程则是自动完成的,你无需手动 ...
16.矩阵对角化-相似矩阵 16.1 相似矩阵 16.1.1 相似矩阵的定义 设存在n阶矩阵A、B,且存在可逆矩阵P,使: \[\tag{1} P\cdot A\cdot P^{-1}=B \]则称\(矩阵B是A的相似矩阵\),或\(矩阵A与矩阵B相似\)。 称\(P\)为\(相似变换矩阵\) 称\ ...
15 特征值和特征向量 15.1 定义 设存在n阶矩阵A: \[A= \begin{bmatrix} a_{11} & a_{12} & a_{13} &...& a_{1n}\\ a_{21} & a_{22} & a_{23} &...& a_{2n}\\ a_{31} & a_{32} & a ...
1. MLP(多层感知机)——「智能分拣流水线」 原理: 想象你有一个快递分拣中心,要把包裹分成“电子产品”“衣服”“书籍”三类。MLP就像一条多层流水线: 第一层工人(输入层): 只负责记录包裹的基础信息(比如重量、体积、颜色)。 中间层工人(隐藏层): 根据基础信息推测更复杂的特征(比如“轻+小 ...
由反向传播原理可知,梯度的计算遵循链式法则。由于网络层数不断加深,梯度的连乘效应可能会导致梯度呈指数形式衰减,又或以指数形式增加。 前者叫做梯度消失,梯度消失导致网络中的早期层几乎不更新,使得网络难以学习到输入数据的有效特征。可能导致网络权重更新非常缓慢,使得训练过程变得不稳定。 后者叫做梯度爆炸, ...
模型能否准确地预测数据,是通过损失函数来衡量的。如何调整权重和偏差参数,从而最小化神经网络的损失函数,这是一类特定的优化算法。我们称它们为优化器(optimizer)。 为什么需要优化器? 因为损失函数参数众多且结构复杂,其导数置零的方程无法得到解析解或计算非常复杂。因此我们需要用迭代的方式逐步调整 ...
14.施密特正交化 14.1 规范正交化 14.1.1 规范正交化的定义 \[设:存在向量空间V(V \subset R^n) \]\[n维向量A=(a_1,a_2,a_3,...,a_n)是V中的一个基 \]\[若:V中存在一个规范正交基E=(e_1,e_2,e_3...,e_n),使A与E等价 ...