深度学习笔记12-循环神经网络(RNN)在NLP上的应用

1.RNN的简单回顾

RNN的典型应用:

2.LSTM的简单回顾

 

 

3.attention模型(注意力模型)

输入一张图片,经过CNN卷积层,得到输出的特征集L*D(196*512),D表示有多少个神经元,L是CNN的滑动窗口输出的14*14的值

下图中右边一侧是一个RNN,输出a2是一个权重向量14*14(attention 注意力的体现),与L(CNN的滑动窗口的输出)做点乘,

上图参数说明:

a1是196*1的概率向量,就是一个初始化的attention

y1是上一个词,z1是加权后的图像特征(即投射了不同的注意力attention)

d1=y2,d1表示t1时刻的输出的词,y2是t2时刻的输入的词,a2表示下一步该在这张图片上的每个位置投射的注意力

4.翻译系统(了解)

 

 

posted @   雨后观山色  阅读(690)  评论(0编辑  收藏  举报
编辑推荐:
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
点击右上角即可分享
微信分享提示