隐马尔科夫模型HMM

HMM

本文接着上一篇的POS tagging来讲hidden markov model,以及如何使用HMM来做NLP任务的训练。

概率模型

假设我们的目标是给定一句话w(也就是一个序列),希望获得一组最优的tagging序列t,

\[\hat{t} = argmax_tP(t|w) = argmax_t\frac{P(w|t)P(t)}{P(w)} = argmax_tP(w|t)P(t) \]

再利用相互独立假设,

\[P(w|t) = \prod_{i=1}^nP(w_i|t_i) \ and\ P(t) = \prod_{i=1}^nP(t_i|t_{i-1}) \]

我们就得到了HMM模型,这里我们可以看到每个词只由他的tag决定,而每个tag都只由他前一个tag决定(马尔科夫链),hidden就体现在tag实际上我们是看不到的,前一个式子就是emission概率,后者为transition概率。

训练

HMM可以使Maximum Likelihood Estimation(MLE)来训练,概率的计算可以由统计频率来得到。例如

\[P(like|VB) = \frac{count(VB,like)}{count(VB)} \]

我们使用<s>表示句子开始,用<\s>表示句子结束,遇到没见过的count我们可以使用smoothing方法。

训练中,我们不能按照一个词一个词地去预测tag,因为这样就变成了寻找最大化词的概率了,我们要找的是使得整句话概率最大的tag序列!下面介绍一种动态算法来解决这个问题。

Viterbi算法

举个栗子(基于bigram),

viterbi1

我们按照HMM公式通过查表(如下概率表)依次计算每个格子里的值,

viterbi2

viterbi3

这里的s表示前面计算出的score值,然后依次计算下去,最后得到

viterbi4

这个算法在bigram情况下的时间复杂度是O(T * T * N),T是tag集合的大小,N是序列的长度。

HMM作为一种非监督模型,也可以用作生成模型,根据我们训练好的数据来生成一些新的数据。

Discriminative model

除了使用贝叶斯假设,我们也可以通过其他更为直接的方法来描述\(P(t|w)\)

\[\hat{T} = argmax_TP(T|W) = argmax_T\prod_iP(t_i|w_i,t_{i-1}) \]

例如Maximum Entropy Markov Model(MEMM),Conditional random field (CRF), Connectionist Temporal Classification (CTC) 以及深度学习,这样我们可以加入更多需要的特征信息,但是模型不再是生成模型。

posted @ 2020-06-20 02:22  MrDoghead  阅读(203)  评论(0编辑  收藏  举报