摘要:
Transformer 自注意力机制 自注意力机制核心就是计算句子在编码过程中每个位置上的注意力权重,然后再以权重和的方式计算整个句子的隐含向量表示 attention核心? self-attention 核心公式: \(\text{Attention}(Q,K,V) = \text{softmax 阅读全文
搜索
最新评论
- 1. Re:Python语音增强
😂这样有意义吗?
- --凌逆战
- 2. Re:博客园自定义皮肤设置2
为什么现在背景里的那个动画线条没有啦
- --xiaobaibao
- 3. Re:博客园自定义皮肤设置2
赞
- --yegeli