Highway Networks
一 、Highway Networks 与 Deep Networks 的关系
深层神经网络相比于浅层神经网络具有更好的效果,在很多方面都已经取得了很好的效果,特别是在图像处理方面已经取得了很大的突破,然而,伴随着深度的增加,深层神经网络存在的问题也就越大,像大家所熟知的梯度消失问题,这也就造成了训练深层神经网络困难的难题。2015年由Rupesh Kumar Srivastava等人受到LSTM门机制的启发提出的网络结构(Highway Networks)很好的解决了训练深层神经网络的难题,Highway Networks 允许信息高速无阻碍的通过深层神经网络的各层,这样有效的减缓了梯度的问题,使深层神经网络不在仅仅具有浅层神经网络的效果。
二、Deep Networks 梯度消失/爆炸(vanishing and exploding gradient)问题
我们先来看一下简单的深层神经网络(仅仅几个隐藏层)
先把各个层的公式写出来
C = sigmoid(W4 * H3 + b4) H3 = sigmoid(W3 * H2 + b3) H2 = sigmoid(W2 * H1 + b2) H1 = sigmoid(W1 * x + b1)
我们对W1求导:
W = W - lr * g(t)
以上公式仅仅是四个隐层的情况,当隐层的数量达到数十层甚至是数百层的情况下,一层一层的反向传播回去,当权值 < 1的时候,反向传播到某一层之后权值近乎不变,相当于输入x的映射,例如,g(t) =〖0.9〗^100已经是很小很小了,这就造成了只有前面几层能够正常的反向传播,后面的那些隐层仅仅相当于输入x的权重的映射,权重不进行更新。反过来,当权值 > 1的时候,会造成梯度爆炸,同样是仅仅前面的几层能更改正常学习,后面的隐层会变得很大。
三、Highway Networks Formula
-
Notation
(.) 操作代表的是矩阵按位相乘
sigmoid函数:
-
Highway Networks formula
对于我们普通的神经网络,用非线性激活函数H将输入的x转换成y,公式1忽略了bias。但是,H不仅仅局限于激活函数,也采用其他的形式,像convolutional和recurrent。
对于Highway Networks神经网络,增加了两个非线性转换层,一个是 T(transform gate) 和一个是 C(carry gate),通俗来讲,T表示输入信息经过convolutional或者是recurrent的信息被转换的部分,C表示的是原始输入信息x保留的部分 ,其中 T=sigmoid(wx + b)
为了计算方便,这里定义了 C = 1 - T
需要注意的是x,y, H, T的维度必须一致,要想保证其维度一致,可以采用
sub-sampling
或者zero-padding
策略,也可以使用普通的线性层改变维度,使其一致,可以采用几个公式相比,公式3要比公式1灵活的多,可以考虑一下特殊的情况,T= 0的时候,y = x,原始输入信息全部保留,不做任何的改变,T = 1的时候,Y = H,原始信息全部转换,不在保留原始信息,仅仅相当于一个普通的神经网络。
四、Highway BiLSTM Networks 搭建##
pytorch搭建神经网络一般需要继承nn.Module
这个类,然后实现里面的forward()
函数,搭建Highwany BiLSTM Networks写了两个类,并使用nn.ModuleList
将两个类联系起来:
class HBiLSTM(nn.Module): def __init__(self, args): super(HBiLSTM, self).__init__() ...... def forward(self, x): # 实现Highway BiLSTM Networks的公式 ......
class HBiLSTM_model(nn.Module): def __init__(self, args): super(HBiLSTM_model, self).__init__() ...... # args.layer_num_highway 代表Highway BiLSTM Networks有几层 self.highway = nn.ModuleList([HBiLSTM(args) for _ in range(args.layer_num_highway)]) ...... def forward(self, x): ...... # 调用HBiLSTM类的forward()函数 for current_layer in self.highway: x, self.hidden = current_layer(x, self.hidden)
在HBiLSTM
类的forward()
函数里面我们实现Highway BiLSTM Networks
的的公式
首先我们先来计算H,上文已经说过,H可以是卷积或者是LSTM,在这里,normal_fc
就是我们需要的H
x, hidden = self.bilstm(x, hidden) # torch.transpose是转置操作 normal_fc = torch.transpose(x, 0, 1)
上文提及,x,y,H,T的维度必须保持一致,并且提供了两种策略,这里我们使用一个普通的Linear
去转换维度
source_x = source_x.contiguous() information_source = source_x.view(source_x.size(0) * source_x.size(1), source_x.size(2)) information_source = self.gate_layer(information_source) information_source = information_source.view(source_x.size(0), source_x.size(1), information_source.size(1))
也可以采用zero-padding
的策略保证维度一致
# you also can choose the strategy that zero-padding zeros = torch.zeros(source_x.size(0), source_x.size(1), carry_layer.size(2) - source_x.size(2)) source_x = Variable(torch.cat((zeros, source_x.data), 2))
维度一致之后我们就可以根据我们的公式来写代码了:
# transformation gate layer in the formula is T transformation_layer = F.sigmoid(information_source) # carry gate layer in the formula is C carry_layer = 1 - transformation_layer # formula Y = H * T + x * C allow_transformation = torch.mul(normal_fc, transformation_layer) allow_carry = torch.mul(information_source, carry_layer) information_flow = torch.add(allow_transformation, allow_carry)
最后的information_flow
就是我们的输出,但是,还需要经过转换维度保证维度一致。
更多的请参考Github: Highway Networks implement in pytorch
五、Highway Networks 实验结果
-
个人实验结果
任务:情感分类任务 --- 二分类
数据规模 :
分析:从图中可以看出,相同的参数情况下,浅层神经网络相互对比变化不是很明显,5层的神经网络就有了一些变化,准确率相差了一个点左右。由于硬件资源,更加深的深层神经网络还没有测试。 但是从图中也可以发现问题就是伴随深度的加深,Highway Networks的准确率也在下降,深度加深,神经网络的参数也就增加的越多,这就需要重新调节超参数。
-
Paper 实验结果
分析:从论文的实验结果来看,当深层神经网络的层数能够达到50层甚至100层的时候,loss也能够下降的很快,犹如几层的神经网络一样,与普通的深层神经网络形成了鲜明的对比。