alex_bn_lee

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

【759】seq2seq(编码器和解码器)和注意力机制

参考:动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制

以机器翻译作为示例讲解的,相关笔记如下:

  • Encoder与Decoder之间的关联,可以是最后的隐含层,或者不同的Attention层,而且对于Decoder的没一个模块都对应着不同的输入,与U-Net模型类似,如下图所示。
  • 对于注意力机制的理解,翻译中,对于预测每个单词的时候,起到关键作用的原始单词对不一样,通过Attention进行赋值不同的权重,可以体现出对不同的单词提供不同的注意力。
  • 机器翻译的初始输入为<bos>,结束用<eos>来表示。

posted on   McDelfino  阅读(79)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2019-10-23 【444】Data Analysis (shp, arcpy)
点击右上角即可分享
微信分享提示