清华大学刘洋--基于深度学习的机器翻译(2)--- 受限词汇量/先验约束/训练准则

受限词汇量:我们不能把全部的所有词汇都汇总起来,这个集合太大了。我们只能选一些。

受计算复杂度的限制,仅能使用有限的词汇量。

 

这里有几种方法:

  1. 未登录词替换 unknown key replace :在后处理阶段,单独翻译未登录词
  2. 基于字母的模型。用更细粒度单元降低词汇量。
  3. 子词:BPE 合并高频字符串对实现子词切分。
  4. 相似词替换:用相似词代替未登录词进行训练

 

 

——————————————————————————————————————————————————————————————

先验约束是什么呢?

神经网络是数据驱动的,先验知识即数据以外的知识。

  1. 先验约束

覆盖率的约束:不应该重复翻译,也不能漏翻

 

 

注意力机制中的结构化约束,从神经网络自身进行约束,对函数约束

 

一致性训练:翻译的正向和反向的结果大致是一致的,具有互补性。

________________________________________________________________________________________________________________________________________________________________________

对于神经网络而言,极大似然估计越大越好。

 

exposure bias问题:

即在观测数据中,生成每一个目标词之前的所有词都是正确的。

而模型预测的生成词不能保证之前的每一个词是正确的。

 

————————————————————————

词级损失函数:

 

极大似然估计,只对每一个词,使用损失函数。它并不会考虑语序等

 

--------------

最小风险训练

 

柱搜索优化

 

MIXER: 利用增强学习针对评价指标优化模型。

 

posted @ 2019-02-15 10:37  vector11248  阅读(314)  评论(0编辑  收藏  举报