【759】seq2seq(编码器和解码器)和注意力机制
参考:动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制
以机器翻译作为示例讲解的,相关笔记如下:
- Encoder与Decoder之间的关联,可以是最后的隐含层,或者不同的Attention层,而且对于Decoder的没一个模块都对应着不同的输入,与U-Net模型类似,如下图所示。
- 对于注意力机制的理解,翻译中,对于预测每个单词的时候,起到关键作用的原始单词对不一样,通过Attention进行赋值不同的权重,可以体现出对不同的单词提供不同的注意力。
- 机器翻译的初始输入为<bos>,结束用<eos>来表示。
分类:
AI Related
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· .NET10 - 预览版1新功能体验(一)
2019-10-23 【444】Data Analysis (shp, arcpy)