摘要: 重新思考的注意力机制,Performers是由谷歌,剑桥大学,DeepMind,和艾伦图灵研究所发布在2021 ICLR的论文已经超过500次引用 传统的Transformer的使用softmax 注意力,具有二次空间和时间复杂度。Performers是Transformer的一个变体,它利用一种新 阅读全文
posted @ 2022-12-11 10:40 deephub 阅读(38) 评论(0) 推荐(0) 编辑