04 2019 档案

摘要:近年来,深度学习的研究越来越深入,在各个领域也都获得了不少突破性的进展。基于注意力(attention)机制的神经网络成为了最近神经网络研究的一个热点,下面是一些基于attention机制的神经网络在自然语言处理(NLP)领域的论文,现在来对attention在NLP中的应用进行一个总结,和大家一起 阅读全文
posted @ 2019-04-30 16:43 杨国峰 阅读(2306) 评论(1) 推荐(0) 编辑
摘要:近年来,注意力(Attention)机制被广泛应用到基于深度学习的自然语言处理(NLP)各个任务中。随着注意力机制的深入研究,各式各样的attention被研究者们提出。在2017年6月google机器翻译团队在arXiv上放出的《Attention is all you need》论文受到了大家广 阅读全文
posted @ 2019-04-30 16:39 杨国峰 阅读(2248) 评论(0) 推荐(0) 编辑
摘要:1. 引言 在介绍论文之前,我将先简单介绍一些相关背景知识。首先是语言模型(Language Model),语言模型简单来说就是一串词序列的概率分布。具体来说,语言模型的作用是为一个长度为m的文本确定一个概率分布P,表示这段文本存在的可能性。在实践中,如果文本的长度较长,P(wi | w1, w2, 阅读全文
posted @ 2019-04-19 11:29 杨国峰 阅读(1188) 评论(0) 推荐(0) 编辑
摘要:解决分类问题中类别不平衡、分类难度差异的一个 Loss。 阅读全文
posted @ 2019-04-04 16:25 杨国峰 阅读(863) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示