会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
JustDoIT
博客园
首页
新随笔
联系
订阅
管理
2021年1月11日
[NLP论文]Longformer: The Long-Document Transformer论文翻译及理解
摘要: 摘要 基于Transformer的模型由于自注意力操作不能处理长序列,自注意力操作是序列长度的二次方。为了定位这个限制,我们提出一种Longformer的方法,它使用的注意力机制能够随着序列长度线性增长,使得能够很容易的处理具有数千或者更长token的文档。Longformer的注意力机制可以使用任
阅读全文
posted @ 2021-01-11 20:49 justDoIT&
阅读(1558)
评论(0)
推荐(0)
编辑
公告