《动手学深度学习 Pytorch版》 8.7 通过时间反向传播

8.7.1 循环神经网络的梯度分析

本节主要探讨梯度相关问题,因此对模型及其表达式进行了简化,进行如下表示:

(1)ht=f(xt,ht1,wh)(2)ot=g(ht,wo)

参数字典:

  • t 表示时间步

  • ht 表示时间步 t 的隐状态

  • xt 表示输入

  • ot 表示输出

  • wh 表示隐藏层权重

  • wo 表示输出层权重

  • f 表示隐藏层变换

  • g 表示输出层权重

前向传播相当简单,一次一个时间步的遍历三元组 (xt,ht,ot),然后通过一个目标函数在所有 T 个时间步内评估输出 ot 和对应的标签 yt 之间的差异:

L(x1,,xT,y1,,yT,wh,wo)=1Tt=1Tl(yt,ot)

对于反向传播,就很棘手了,特别是计算目标函数 L 关于参数 wh 的梯度时,按照链式法则:

(3)Lwh=1Tt=1Tl(yt,ot)wh(4)=1Tt=1Tl(yt,ot)otg(ht,wo)hthtwh

乘积的第一项和第二项很容易计算, 而第三项 ht/wh 是使事情变得棘手的地方,因为我们需要循环地计算参数 whht 的影响。根据定义式中的递归计算,ht 既依赖于 ht1 又依赖于 wh,其中 ht1 的计算也依赖于 wh。因此,使用链式法则产生:

htwh=f(xt,ht1,wh)wh+f(xt,ht1,wh)ht1ht1wh

消掉递归计算得

htwh=f(xt,ht1,wh)wh+i=1t1(j=i+1tf(xt,hj1,wh)hj1)f(xi,hi1,wh)wh

虽然我们可以使用链式法则递归地计算 ht/wh,但当 t 很大时这个链就会变得很长。需要想办法来处理这一问题.

8.7.1.1 完全计算

最简单粗暴的方法,可以直接计算,然而,这样的计算非常缓慢,并且可能会发生梯度爆炸,因为初始条件的微小变化就可能会对结果产生巨大的影响。也就是说类似于蝴蝶效应,即初始条件的很小变化就会导致结果发生不成比例的变化。而我们正在寻找的是能够很好地泛化高稳定性模型的估计器。因此,在实践中,这种方法几乎从未使用过。

8.7.1.2 随即截断

可以用一个随机变量替换 ht/wh,该随机变量在预期中是正确的,但是会截断序列。 这个随机变量是通过使用序列 ξt 来实现的,序列预定义了 0<πt<1,其中 P(ξt=0)=1πtP(ξt=πt1=πt),因此 E|ξt|=1。 我们使用它来替换梯度 ht/wh 得到:

(8.7.8)

zt=f(xt,ht1,wh)wh+ξtf(xt,ht1,wh)ht1ht1wh

ξt 的定义中推导出来 E|ξt|=ht/wh。每当 ξt=0 时,递归计算终止在这个 t 时间步。这导致了不同长度序列的加权和,其中长序列出现的很少,所以将适当地加大权重。

8.7.1.3 比较策略

image

行自上而下分别为:

  • 第一行采用随机截断,方法是将文本划分为不同长度的片断;

  • 第二行采用常规截断,方法是将文本分解为相同长度的子序列。这也是我们在循环神经网络实验中一直在做的;

  • 第三行采用通过时间的完全反向传播,结果是产生了在计算上不可行的表达式。

虽然随机截断在理论上具有吸引力,但很可能是由于多种因素在实践中并不比常规截断更好:

  • 首先,在对过去若干个时间步经过反向传播后,观测结果足以捕获实际的依赖关系。

  • 其次,增加的方差抵消了时间步数越多梯度越精确的事实。

  • 第三,我们真正想要的是只有短范围交互的模型。因此,模型需要的正是截断的通过时间反向传播方法所具备的轻度正则化效果。

8.7.2 通过时间反向传播

image

  • “通过时间反向传播”仅仅适用于反向传播在具有隐状态的序列模型。

  • 截断是计算方便性和数值稳定性的需要。截断包括:规则截断和随机截断。

  • 矩阵的高次幂可能导致神经网络特征值的发散或消失,将以梯度爆炸或梯度消失的形式表现。

  • 为了计算的效率,“通过时间反向传播”在计算期间会缓存中间值。

posted @   AncilunKiang  阅读(70)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
点击右上角即可分享
微信分享提示