稀疏注意力 | Big Bird: Transformers for Longer Sequences

参考:「芝麻街」Big Bird : Sparse Attention 再填新成员

 

背景:

原来的注意力机制复杂度高,q需要和每个key点乘,复杂度是n*n。

存在内存问题,自然也就存在token长度限制。

full attention  ->  small attention ?

big bird = longformer + random attention

三要点:

Random attention

Window attention

Global Attention

 

 三要点

Big Bird的稀疏注意力机制,将二次依赖降至线性,解决了BERT模型中的全注意力机制带来的序列长度二次依赖限制,同时兼顾更长的上下文。Big Bird主要由三个部分组成:

  • global attention:一组参与序列的所有部分的g全局token([cls])。 
  • random attention:对于每个查询 [公式] ,每个查询将处理的r个随机key的集合。
  • window attention:一个本地邻居块w,以便每个节点处理其本地结构(attention自己和邻居)。

 

posted @ 2020-08-06 15:37  山竹小果  阅读(1354)  评论(0编辑  收藏  举报