摘要: 1.Transformer结构 //这里为什么有两个output??什么意思?已经完全看不懂了。。 Transformer使用栈式自注意力机制,编码器和解码器的逐点完全连接层。 https://www.jianshu.com/p/e7d8caa13b21,这篇有讲到,Encoder的输出可以变换为注 阅读全文
posted @ 2020-05-29 22:16 lypbendlf 阅读(468) 评论(0) 推荐(0) 编辑
摘要: 1.科学计数法 https://blog.csdn.net/qq_43868654/article/details/98246842 e/E表示10的幂: AeB,表示小数点在A上左移或者右移B次。 2.pytorch clip import torch a=torch.tensor([1,2,3, 阅读全文
posted @ 2020-05-29 15:51 lypbendlf 阅读(166) 评论(0) 推荐(0) 编辑