摘要: 这个问题源于我对Model类中的方法init_weight的理解,一直读不懂这个方法是做什么的,即self.parameters(),这个迭代器送出来的参数是什么呢,我假设这个里面应该是每一层更新的权重,所以我将sru源码的一部分给取了出来,让其输出Model里的parameters,代码如下(sr 阅读全文
posted @ 2017-12-17 16:00 深度学习1 阅读(1867) 评论(0) 推荐(0) 编辑
摘要: from:http://pytorch-cn.readthedocs.io/zh/latest/package_references/torch-nn/#recurrent-layers class torch.nn.LSTM( args, * kwargs)[source] 将一个多层的 (LST 阅读全文
posted @ 2017-12-17 15:50 深度学习1 阅读(2305) 评论(0) 推荐(0) 编辑
摘要: 主要是用函数torch.nn.utils.rnn.PackedSequence()和torch.nn.utils.rnn.pack_padded_sequence()以及torch.nn.utils.rnn.pad_packed_sequence()来进行的,分别来看看这三个函数的用法。 1、tor 阅读全文
posted @ 2017-12-17 14:32 深度学习1 阅读(28155) 评论(7) 推荐(1) 编辑