浅谈深度学习之一:神经网络基本概念与分类

一、深度学习概念

1.什么是深度学习

深度学习(Deep Learning)是机器学习的一种形式,概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。它是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据。

 

2.基本变换(层的概念)

神经网络是由一层一层构建的,那么每层究竟在做什么?

  • 数学式子:\vec{y}= a(W\cdot\vec{x} + {b}),其中\vec{x}是输入向量,\vec{y}是输出向量,\vec{b}是偏移向量,W是权重矩阵,a()是激活函数。每一层仅仅是把输入\vec x经过如此简单的操作得到\vec y
  • 数学理解:通过如下5种对输入空间(输入向量的集合)的操作,完成 输入空间 —> 输出空间 的变换 (矩阵的行空间到列空间)。 注:用“空间”二字的原因是被分类的并不是单个事物,而是一类事物。空间是指这类事物所有个体的集合。
    • 1. 升维/降维
    • 2. 放大/缩小
    • 3. 旋转
    • 4. 平移
    • 5. “弯曲” 这5种操作中,1,2,3的操作由W\cdot\vec{x}完成,4的操作是由+\vec{b}完成,5的操作则是由a()来实现。

每层神经网络的数学理解:用线性变换跟随着非线性变化,将输入空间投向另一个空间。

线性可分视角:神经网络的学习就是学习如何利用矩阵的线性变换加激活函数的非线性变换,将原始输入空间投向线性可分/稀疏的空间去分类/回归。 
增加节点数:增加维度,即增加线性转换能力。 
增加层数:增加激活函数的次数,即增加非线性转换次数。

 

3.模型训练

   学习过程就是学习控制着空间变换方式(物质组成方式)的权重矩阵后,接下来的问题就是如何学习每一层的权重矩阵 W 。通过比较当前网络的预测值和我们真正想要的目标值,再根据两者的差异情况来更新每一层的权重矩阵(比如,如果网络的预测值高了,就调整权重让它预测低一些,不断调整,直到能够预测出目标值)。因此就需要先定义“如何比较预测值和目标值的差异”,这便是损失函数或目标函数(loss function or objective function),用于衡量预测值和目标值的差异的方程。loss function的输出值(loss)越高表示差异性越大。那神经网络的训练就变成了尽可能的缩小loss的过程。所用的方法是梯度下降(Gradient descent):通过使loss值向当前点对应梯度的反方向不断移动,来降低loss。一次移动多少是由学习速率(learning rate)来控制的。

 

4.梯度下降

梯度下降的问题:

 然而使用梯度下降训练神经网络拥有两个主要难题。

其中之一:局部极小值

梯度下降寻找的是loss function的局部极小值,而我们想要全局最小值。如下图所示,我们希望loss值可以降低到右侧深蓝色的最低点,但loss有可能“卡”在左侧的局部极小值中。

试图解决“卡在局部极小值”问题的方法分两大类:

  • 调节步伐:调节学习速率,使每一次的更新“步伐”不同。常用方法有:
  • 随机梯度下降(Stochastic Gradient Descent (SGD):每次只更新一个样本所计算的梯度
  • 小批量梯度下降(Mini-batch gradient descent):每次更新若干样本所计算的梯度的平均值
  • 动量(Momentum):不仅仅考虑当前样本所计算的梯度;Nesterov动量(Nesterov Momentum):Momentum的改进
  • Adagrad、RMSProp、Adadelta、Adam:这些方法都是训练过程中依照规则降低学习速率,部分也综合动量
  • 优化起点:合理初始化权重(weights initialization)、预训练网络(pre-train),使网络获得一个较好的“起始点”,如最右侧的起始点就比最左侧的起始点要好。常用方法有:高斯分布初始权重(Gaussian distribution)、均匀分布初始权重(Uniform distribution)、Glorot 初始权重、He初始权、稀疏矩阵初始权重(sparse matrix)

第二个难题:梯度的计算

机器学习所处理的数据都是高维数据,该如何快速计算梯度、而不是以年来计算。 其次如何更新隐藏层的权重? 解决方法是:计算图:反向传播算法  需要知道的是,反向传播算法是求梯度的一种方法。如同快速傅里叶变换(FFT)的贡献。 而计算图的概念又使梯度的计算更加合理方便。

 

二、前馈神经网络

前馈神经网络(feedforward neural network),是ANN的一种。在该神经网络中,各神经元从输入层开始,接收前一级输入,并输出到下一级,直至输出层。整个网络中无反馈,可用一个有向无环图表示。
前馈神经网络采用一种单向多层结构。其中每一层包含若干个神经元,同一层的神经元之间没有互相连接,层间信息的传送只沿一个方向进行。其中第一层称为输入层。最后一层为输出层.中间为隐含层,简称隐层。隐层可以是一层。也可以是多层。
 
  • 网络结构:2维输入 \rightarrow\rightarrow1维输出

  • 结构表达式:
    • 正向传递: y=M(x)=relu(W_{h} \cdot relu(W_{x} \cdot x+b_{x})+b_{h}) (1)
      • y 用于表达随机变量 Y 的值, x 表示随机变量 X 的值, M(x) 是我们的神经网络模型,等号右侧是具体的表达。
    • 损失函数: loss=1/2\cdot \sum\limits_i (y_i-t_i)^2
      • 该loss就是比较 y 和 t 中所有值的差别。
  • 整体结构:左侧的图表示网络结构。绿色方框表示操作,也叫作层(layer)。该结构中,输入 x 经过hid_layer算出隐藏层的值 h ,再传递给out_layer,计算出预测值 y ,随后与真实值 t 进行比较,算出损失 loss ,再从反向求导得出梯度后对每一层的 W和 b 进行更新。

 

  • 正向传递:如果放大hid_layer内部,从下向上,会看到 W_h 先用truncated_normal的方法进行了初始化,随后与输入 x 进行矩阵相乘,加上 b_h ,又经过了activation后,送给了用于计算 y 的out_layer中。而 y 的计算方式和 h 完全一致,但用的是不同的权重 W_o 和偏移 b_o 。最后将算出的预测值 y 与真实值 t 一同求出 loss

  • 反向传递:如果放大train的内部,再放大内部中的gradients,就可以看到框架是从 loss开始一步步反向求得各个层中 W 和 b 的梯度的。

  • 权重更新:求出的各个层 W 和 b 的梯度,将会被用于更新对应的 W 和 b ,并用learning rate控制一次更新多大。(beta1_power和beta2_power是Adam更新方法中的参数,目前只需要知道权重更新的核心是各自对应的梯度。)

三、循环神经网络(RNN)

 前馈网络:window size为3帧的窗处理后的前馈网络

  • 动态图:左侧是时间维度展开前,右侧是展开后(单位时刻实际工作的只有灰色部分。)。前馈网络的特点使不同时刻的预测完全是独立的。我们只能通过窗处理的方式让其照顾到前后相关性。
 

 

  • 数学式子:h_t= \phi(W_{xh} \cdot concat(x_{t-1}, x_t, x_{t+1}) + {b}),concat表示将向量并接成一个更大维度的向量。
  • 学习参数:需要从大量的数据中学习W_{xh}b
  • 要学习各个时刻(3个)下所有维度(39维)的关系(39*3个),就需要很多数据。

 递归网络:不再有window size的概念,而是time step

  • 动态图:左侧是时间维度展开前,回路方式的表达方式,其中黑方框表示时间延迟。右侧展开后,可以看到当前时刻的h_t并不仅仅取决于当前时刻的输入x_t,同时与上一时刻的h_{t-1}也相关。
 

  • 数学式子:h_t= \phi(W_{xh} \cdot x_t + W_{hh} \cdot h_{t-1} + {b})h_t同样也由x_tW_{xh}的变化后的信息决定,
  • 但这里多另一份信息:W_{hh}\cdot h_{t-1},而该信息是从上一时刻的隐藏状态h_{t-1}经过一个不同的W_{hh}变换后得出的。
  • 注:W_{xh}的形状是行为dim_input,列为dim_hidden_state,而W_{hh}是一个行列都为dim_hidden_state的方阵。
  • 学习参数:前馈网络需要3个时刻来帮助学习一次W_{xh},而递归网络可以用3个时刻来帮助学习3次W_{xh}W_{hh}。换句话说:所有时刻的权重矩阵都是共享的。这是递归网络相对于前馈网络而言最为突出的优势。
递归神经网络是在时间结构上存在共享特性的神经网络变体。

时间结构共享是递归网络的核心中的核心。

 

 

posted @ 2019-11-06 15:06  jimchen1218  阅读(3592)  评论(0编辑  收藏  举报