摘要: 自注意力 在介绍transformer之前,先讲一个比价重要的东西=》 self-attention。self-attention其实没有什么特殊的地方,主要就是key,value,query到底要怎么选择,自注意力机制有自己的一套选法。 CNN,RNN,self-attention都可以用来处理序 阅读全文
posted @ 2021-10-11 08:31 RowryCho 阅读(423) 评论(0) 推荐(0) 编辑