深度学习:循环神经网络(上)

1、语言模型

语言模型(language model)是自然语言处理的重要技术。

自然语言处理中最常见的数据是文本数据。

我们可以把一段自然语言文本看作一段离散的时间序列。

假设一段长度为T的文本中的词依次为w1,w2,,wT,那么在离散的时间序列中,wt1tT)可看作在时间步(time step)t的输出或标签。

给定一个长度为T的词的序列w1,w2,,wT,语言模型将计算该序列的概率:

P(w1,w2,,wT).

语言模型可用于提升语音识别和机器翻译的性能。

📣
例如:
在语音识别中,给定一段“厨房里食油用完了”的语音,有可能会输出“厨房里食油用完了”和“厨房里石油用完了”这两个读音完全一样的文本序列。如果语言模型判断出前者的概率大于后者的概率,我们就可以根据相同读音的语音输出“厨房里食油用完了”的文本序列。
在机器翻译中,如果对英文“you go first”逐词翻译成中文的话,可能得到“你走先”“你先走”等排列方式的文本序列。
如果语言模型判断出“你先走”的概率大于其他排列方式的文本序列的概率,我们就可以把“you go first”翻译成“你先走”。

1.1语言模型的计算

既然语言模型很有用,那该如何计算它呢?假设序列w1,w2,,wT中的每个词是依次生成的,我们有

P(w1,w2,,wT)=t=1TP(wtw1,,wt1).

例如,一段含有4个词的文本序列的概率

P(w1,w2,w3,w4)=P(w1)P(w2w1)P(w3w1,w2)P(w4w1,w2,w3).

为了计算语言模型,我们需要计算词的概率,以及一个词在给定前几个词的情况下的条件概率,即语言模型参数。设训练数据集为一个大型文本语料库,如维基百科的所有条目。词的概率可以通过该词在训练数据集中的相对词频来计算。例如,P(w1)可以计算为w1在训练数据集中的词频(词出现的次数)与训练数据集的总词数之比。因此,根据条件概率定义,一个词在给定前几个词的情况下的条件概率也可以通过训练数据集中的相对词频计算。例如,P(w2w1)可以计算为w1,w2两词相邻的频率与w1词频的比值,因为该比值即P(w1,w2)P(w1)之比;而P(w3w1,w2)同理可以计算为w1w2w3这3个词相邻的频率与w1w2这2个词相邻的频率的比值。以此类推。

1.2 n元语法

当序列长度增加时,计算和存储多个词共同出现的概率的复杂度会呈指数级增加。n元语法通过马尔可夫假设(虽然并不一定成立)简化了语言模型的计算。这里的马尔可夫假设是指一个词的出现只与前面n个词相关,即n阶马尔可夫链(Markov chain of order n)。如果n=1,那么有P(w3w1,w2)=P(w3w2)。如果基于n1阶马尔可夫链,我们可以将语言模型改写为

P(w1,w2,,wT)t=1TP(wtwt(n1),,wt1).

以上也叫n元语法(n-grams)。
它是基于n1阶马尔可夫链的概率语言模型。当n分别为1、2和3时,我们将其分别称作一元语法(unigram)、二元语法(bigram)和三元语法(trigram)。例如,长度为4的序列w1,w2,w3,w4在一元语法、二元语法和三元语法中的概率分别为

P(w1,w2,w3,w4)=P(w1)P(w2)P(w3)P(w4),P(w1,w2,w3,w4)=P(w1)P(w2w1)P(w3w2)P(w4w3),P(w1,w2,w3,w4)=P(w1)P(w2w1)P(w3w1,w2)P(w4w2,w3).

n较小时,n元语法往往并不准确。例如,在一元语法中,由三个词组成的句子“你走先”和“你先走”的概率是一样的。然而,当n较大时,n元语法需要计算并存储大量的词频和多词相邻频率。

2、循环神经网络

n元语法中,时间步t的词wt基于前面所有词的条件概率只考虑了最近时间步的n1个词。
如果要考虑比t(n1)更早时间步的词对wt的可能影响,我们需要增大n。但这样模型参数的数量将随之呈指数级增长。

循环神经网络。它并非刚性地记忆所有固定长度的序列,而是通过隐藏状态来存储之前时间步的信息。

2.1 不含隐藏状态的神经网络

让我们考虑一个含单隐藏层的多层感知机。给定样本数为n、输入个数(特征数或特征向量维度)为d的小批量数据样本XRn×d。设隐藏层的激活函数为ϕ,那么隐藏层的输出HRn×h计算为

H=ϕ(XWxh+bh),

其中隐藏层权重参数WxhRd×h,隐藏层偏差参数 bhR1×hh为隐藏单元个数。上式相加的两项形状不同,因此将按照广播机制相加(参见“数据操作”一节)。把隐藏变量H作为输出层的输入,且设输出个数为q(如分类问题中的类别数),输出层的输出为

O=HWhq+bq,

其中输出变量ORn×q, 输出层权重参数WhqRh×q, 输出层偏差参数bqR1×q。如果是分类问题,我们可以使用softmax(O)来计算输出类别的概率分布。

2.2 含隐藏状态的循环神经网络

现在我们考虑输入数据存在时间相关性的情况。假设XtRn×d是序列中时间步t的小批量输入,HtRn×h是该时间步的隐藏变量。与多层感知机不同的是,这里我们保存上一时间步的隐藏变量Ht1,并引入一个新的权重参数WhhRh×h,该参数用来描述在当前时间步如何使用上一时间步的隐藏变量。具体来说,时间步t的隐藏变量的计算由当前时间步的输入和上一时间步的隐藏变量共同决定:

Ht=ϕ(XtWxh+Ht1Whh+bh).

与多层感知机相比,我们在这里添加了Ht1Whh一项。由上式中相邻时间步的隐藏变量HtHt1之间的关系可知,这里的隐藏变量能够捕捉截至当前时间步的序列的历史信息,就像是神经网络当前时间步的状态或记忆一样。因此,该隐藏变量也称为隐藏状态。由于隐藏状态在当前时间步的定义使用了上一时间步的隐藏状态,上式的计算是循环的。使用循环计算的网络即循环神经网络(recurrent neural network)。

循环神经网络有很多种不同的构造方法。含上式所定义的隐藏状态的循环神经网络是极为常见的一种。若无特别说明,本章中的循环神经网络均基于上式中隐藏状态的循环计算。在时间步t,输出层的输出和多层感知机中的计算类似:

Ot=HtWhq+bq.

循环神经网络的参数包括隐藏层的权重WxhRd×hWhhRh×h和偏差 bhR1×h,以及输出层的权重WhqRh×q和偏差bqR1×q。值得一提的是,即便在不同时间步,循环神经网络也始终使用这些模型参数。因此,循环神经网络模型参数的数量不随时间步的增加而增长。

下图展示了循环神经网络在3个相邻时间步的计算逻辑。在时间步t,隐藏状态的计算可以看成是将输入Xt和前一时间步隐藏状态Ht1连结后输入一个激活函数为ϕ的全连接层。该全连接层的输出就是当前时间步的隐藏状态Ht,且模型参数为WxhWhh的连结,偏差为bh。当前时间步t的隐藏状态Ht将参与下一个时间步t+1的隐藏状态Ht+1的计算,并输入到当前时间步的全连接输出层。

我们刚刚提到,隐藏状态中XtWxh+Ht1Whh的计算等价于XtHt1连结后的矩阵乘以WxhWhh连结后的矩阵。

2.3 应用:基于字符级循环神经网络的语言模型

最后我们介绍如何应用循环神经网络来构建一个语言模型。设小批量中样本数为1,文本序列为“想”“要”“有”“直”“升”“机”。下图演示了如何使用循环神经网络基于当前和过去的字符来预测下一个字符。在训练时,我们对每个时间步的输出层输出使用softmax运算,然后使用交叉熵损失函数来计算它与标签的误差。在图中,由于隐藏层中隐藏状态的循环计算,时间步3的输出O3取决于文本序列“想”“要”“有”。 由于训练数据中该序列的下一个词为“直”,时间步3的损失将取决于该时间步基于序列“想”“要”“有”生成下一个词的概率分布与该时间步的标签“直”。

因为每个输入词是一个字符,因此这个模型被称为字符级循环神经网络(character-level recurrent neural network)。因为不同字符的个数远小于不同词的个数(对于英文尤其如此),所以字符级循环神经网络的计算通常更加简单。

3、语言模型数据集(歌词)

如何预处理一个语言模型数据集,并将其转换成字符级循环神经网络所需要的输入格式。

数据:周杰伦从第一张专辑《Jay》到第十张专辑《跨时代》中的歌词,并在后面几节里应用循环神经网络来训练一个语言模型。当模型训练好后,我们就可以用这个模型来创作歌词。





posted @   朝南烟  阅读(126)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
body { color: #000; background-color: #e6e6e6; font-family: "Helvetica Neue",Helvetica,Verdana,Arial,sans-serif; font-size: 12px; min-height: 101%; background: url(https://images.cnblogs.com/cnblogs_com/caolanying/1841633/o_2009041…ly1geq8oc9owbj21hc0u0th5.jpg) fixed; } #home { margin: 0 auto; opacity: 0.8; width: 65%; min-width: 1080px; background-color: #fff; padding: 30px; margin-top: 50px; margin-bottom: 50px; box-shadow: 0 2px 6px rgba(100, 100, 100, 0.3); }
点击右上角即可分享
微信分享提示