【自然语言处理】第11周

Attention机制:

人看东西的启发

所谓注意力,就是计算相似度

 

 a是权重,即相似度

 

The Transformer

 

 

位置是有相对关系的

残差,梯度消失

 

 多重注意力是自己和自己计算的

https://www.jianshu.com/p/ef41302edeef

自注意力怎么计算

Qn和Kn+1做点积

遮盖预测

 

BERT

初始化

微调:在不太大的训练集上进行

预训练,再进行微调的

posted on 2020-11-12 13:15  中大网安维修师傅  阅读(49)  评论(0编辑  收藏  举报