会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
足下水清
CnBlogs
Home
New Post
Contact
Admin
Subscription
2018年11月23日
知识点学习
一:学习了LSTM和CNN LSTM 选择性地记忆之前地信息,利用了各种门控CNN : 卷积核 进行卷积 得到 n-f+1)*(n-f+1) 会导致图像缩小边缘信息消失 所以进行padding ,padding完后,然后卷积可以的得到和原来一样地维度图像n+2p-f+1)*(n+2p-f+1) 卷积
Read More
posted @ 2018-11-23 20:18 足下水清
Views(140)
Comments(1)
Diggs(0)
Edit
公告