Capturing document context inside sentence-level neural machine translation models with self-training
论文信息:论文地址
概述
神经机器翻译(NMT)获得了巨大成功,在部分领域几乎达到了人类水平,但这些模型主要是在句子级别的平行语料上进行训练和评估的。文档级别的机器翻译需要捕获上下文进行精确翻译,越来越受到研究者们的关注。
一种直接的解决方案是孤立地翻译文档中的每一个句子,但这样会带来不一致问题。为了解决这个问题,先前大部分方法是提出在文档级数据上训练的条件上下文(context- conditional)机器翻译模型。但是这些方法无法使用在句子级语料上训练的NMT模型。
本文提出了一个在解码阶段将上下文融入已训练句子级翻译模型中的方法,从而不需要在文档级语料上训练条件上下文机器翻译模型。这也是本文的核心创新点。
方法
自训练
首先将文档
多趟自训练
由于文档是按照从左到右的单调顺序进行处理的,因此自训练的过程无法获得还未处理句子的信息。为了利用文档的全局信息,本文提出了多趟自训练文档解码。具体来说,就是在对模型进行自我训练的同时从左至右单调处理了多次文档。方法十分暴力直接。
Oracle自训练以提高性能
由于模型翻译的句子可能包含一些错误,自训练的过程可能会放大这些错误,从而对文档中未处理的句子造成更大干扰。为了隔离不完美翻译的效果并估计模型性能的上限,本文以真实翻译为目标对自训练过程进行评估,并将其称为oracle自训练。这类似于语言建模任务中中引入的动态评估方法(dynamic evaluation),其中语言模型的输入文本是用于 在评估过程中训练神经语言模型的目标文本。但在多趟自训练时,本文没有使用oracle自训练,因为模型可能记住正确答案。
实验
数据集
本文主要使用了三个数据集,分别为NIST Chinese-English (Zh-En)数据集, WMT19 Chinese-English (Zh-En)数据集和Open-Subtitles English-Russian (En-Ru)数据集。具体的实验结果可以参照论文。
总结
本文对机器翻译不是特别了解,但总的来说这篇机器翻译论文算是另辟蹊径,只借助句子级机器翻译模型就能够做到文档级翻译,另外方法也是比较简单有效。除此之外,据我所知自训练通常会导致错误放大,使得模型难以训练,但本文引入的动态评估和权重衰减貌似能够客服这个问题,今后也可以重新考虑自训练方法。
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Java 中堆内存和栈内存上的数据分布和特点
· 开发中对象命名的一点思考
· .NET Core内存结构体系(Windows环境)底层原理浅谈
· C# 深度学习:对抗生成网络(GAN)训练头像生成模型
· .NET 适配 HarmonyOS 进展
· 本地部署 DeepSeek:小白也能轻松搞定!
· 如何给本地部署的DeepSeek投喂数据,让他更懂你
· 从 Windows Forms 到微服务的经验教训
· 李飞飞的50美金比肩DeepSeek把CEO忽悠瘸了,倒霉的却是程序员
· 超详细,DeepSeek 接入PyCharm实现AI编程!(支持本地部署DeepSeek及官方Dee