一:学习了LSTM和CNN LSTM 选择性地记忆之前地信息,利用了各种门控CNN : 卷积核 进行卷积 得到 n-f+1)*(n-f+1) 会导致图像缩小边缘信息消失 所以进行padding ,padding完后,然后卷积可以的得到和原来一样地维度图像n+2p-f+1)*(n+2p-f+1) 卷积 Read More
posted @ 2018-11-23 20:18 足下水清 Views(140) Comments(1) Diggs(0) Edit