随笔分类 -  机器翻译

摘要:论文地址:https://arxiv.org/abs/1910.03009 ### 动机 神经机器翻译(NMT)模型在翻译**干净文本**时已被证明是强大的,但它们**对输入中的噪声非常敏感**。改进NMT模型的鲁棒性可以看作是对噪声的“域”适应的一种形式。 最先进的方法严重依赖于大量的反向翻译数据 阅读全文
posted @ 2023-07-26 09:56 张Zong在修行 阅读(105) 评论(0) 推荐(0) 编辑
摘要:## 摘要 **神经机器翻译(NMT)模型在翻译干净文本时已被证明是强大的,但它们对输入中的噪声非常敏感**。改进NMT模型的鲁棒性可以看作是对噪声的“域”适应的一种形式。**最近创建的基于噪声文本的机器翻译任务语料库为一些语言对提供了噪声清洁的并行数据,但这些数据在大小和多样性方面非常有限**。最 阅读全文
posted @ 2023-07-16 10:55 张Zong在修行 阅读(135) 评论(0) 推荐(0) 编辑
摘要:目前,目标语言端的无标注单语数据已被广泛应用于在机器翻译任务中。然而,目标语言端的无标注数据一旦使用不当,反而会给模型结果带来负面影响。为了有效利用大规模源语言端和目标语言端的单语数据,微软亚洲研究院在 EMNLP 2019 上发表的论文中,提出一种简单的语料数据使用流程,只需要四个步骤就能极大地提 阅读全文
posted @ 2023-07-15 18:32 张Zong在修行 阅读(78) 评论(0) 推荐(0) 编辑
摘要:## 题目 基于单语数据的神经机器翻译模型改进 ## 摘要 神经机器翻译(NMT)在仅使用并行数据进行训练的情况下,在几种语言对上取得了最先进的表现。目标侧单语数据在提高基于短语的统计机器翻译的流畅性方面起着重要作用,我们**研究了单语数据在NMT中的应用**。与之前将NMT模型与单独训练的语言模型 阅读全文
posted @ 2023-07-14 20:26 张Zong在修行 阅读(144) 评论(0) 推荐(0) 编辑
摘要:## 题目 大规模理解反向翻译 ## 摘要 在并行训练语料库中增加目标语言句子的反译,是提高单语数据神经机器翻译的有效方法。这项工作拓宽了对反翻译的理解,并研究了一些生成合成源句的方法。我们发现,除了资源贫乏之外,通过采样或带噪波束输出获得的反向平移是最有效的。我们的分析表明,采样或有噪声的合成数据 阅读全文
posted @ 2023-07-14 16:22 张Zong在修行 阅读(303) 评论(0) 推荐(0) 编辑
摘要:## 题目: 机器翻译的提示大语言模型:一个案例研究 ## 摘要 对提示的研究表明,在很少甚至没有监督训练的情况下,提示在许多任务中表现出色。然而,文献中对机器翻译的提示还没有充分的研究。**本文对翻译提示策略进行了系统的研究,考察了提示模板和示例选择的各种因素,填补了这一空白**。我们进一步==探 阅读全文
posted @ 2023-07-12 18:59 张Zong在修行 阅读(481) 评论(0) 推荐(0) 编辑
摘要:![](https://img2023.cnblogs.com/blog/3085423/202307/3085423-20230703175940699-1688909283.png) 机器翻译领域最困难的任务之一就是对给定的翻译系统或者翻译算法进行评价,我们称其为机器翻译评测。 事实上,在科学研 阅读全文
posted @ 2023-07-03 18:06 张Zong在修行 阅读(2322) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示