摘要: Attention 机制 1. 什么是Attention? 简而简之,深度学习中的注意力可以被广义地理解为标志重要性的权重向量 为了预测或推断一个元素,例如图像中的像素或句子中的单词,我们使用注意力权重来估计其他元素与其相关的强度,并将由注意力权重加权的值的总和作为计算最终目标的特征。 Step1. 阅读全文
posted @ 2020-04-29 19:12 小孢子 阅读(308) 评论(0) 推荐(0) 编辑