摘要: 相对于传统的规整的网络布局,Encoder Decoder 模型显得比较随性,不受约束,可能也正式这种自由,使得该模型在实际中发挥巨大的作用。模型结构突破了传统的固定大小输入问题的框架,将经典深度神经网络模型运用于翻译、文本自动摘要、智能问答等情景中,并且在实际应用中有着不俗的表现。Encoder 阅读全文
posted @ 2023-02-18 22:48 emanlee 阅读(181) 评论(0) 推荐(0) 编辑
摘要: Encoder-Decoder框架 概述 Encoder-Decoder 并不是一个具体的模型,而是一个通用的框架。 Encoder 和 Decoder 部分可以是任意文字,语音,图像,视频数据。 模型可以是 CNN,RNN,LSTM,GRU,Attention 等等。 编码,就是将输入序列转化转化 阅读全文
posted @ 2023-02-18 22:48 emanlee 阅读(273) 评论(0) 推荐(0) 编辑
摘要: 链接:https://www.zhihu.com/question/68482809/answer/264632289 作者:张俊林 前导知识:RNN, LSTM,CNN 深度学习中的注意力机制从本质上讲和人类的选择性视觉注意力机制类似,核心目标也是从众多信息中选择出对当前任务目标更关键的信息。 要 阅读全文
posted @ 2023-02-18 22:47 emanlee 阅读(122) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/Michale_L/article/details/126549946 GOOD 三、Self-Attention详解针对输入是一组向量,输出也是一组向量,输入长度为N(N可变化)的向量,输出同样为长度为N 的向量。3.1 单个输出 对于每一个输入向量a, 阅读全文
posted @ 2023-02-18 22:47 emanlee 阅读(708) 评论(0) 推荐(0) 编辑