摘要: 使用Multi-head Self-Attention进行自动特征学习的CTR模型 https://blog.csdn.net/u012151283/article/details/85310370 nlp中的Attention注意力机制+Transformer详解 https://zhuanlan 阅读全文
posted @ 2019-10-15 16:02 静悟生慧 阅读(1154) 评论(0) 推荐(0) 编辑
摘要: multi-head attention ■ 论文 | Attention Is All You Need ■ 链接 | https://www.paperweekly.site/papers/224 ■ 源码 | https://github.com/Kyubyong/transformer ■ 阅读全文
posted @ 2019-10-15 14:43 静悟生慧 阅读(1406) 评论(0) 推荐(0) 编辑