上一页 1 ··· 15 16 17 18 19 20 21 22 23 ··· 64 下一页
摘要: 使用anaconda3环境下的python2.7, 机器macos mojave 10.14 1.安装Xcode 首先现在app store中安装Xcode 2.相应包安装 1.首先要安装homebrew包管理工具,在终端运行下面命令: /usr/bin/ruby -e "$(curl -fsSL 阅读全文
posted @ 2019-08-09 19:54 慢行厚积 阅读(1301) 评论(0) 推荐(0) 编辑
摘要: 1.保存整个网络结构信息和模型参数信息: 直接加载即可使用: 2.只保存网络的模型参数-推荐使用 加载则要先从本地网络模块导入网络,然后再加载参数: 阅读全文
posted @ 2019-08-08 16:09 慢行厚积 阅读(9578) 评论(0) 推荐(1) 编辑
摘要: 下面是定义初始化 然后进行动态赋值: 阅读全文
posted @ 2019-08-01 20:06 慢行厚积 阅读(5712) 评论(0) 推荐(0) 编辑
摘要: Encoder代码为: 判别器为: 重点在: layers = list(model.main.children()) self.features = nn.Sequential(*layers[:-1]) :使用除了最后一层的前面所有层 self.classifier = nn.Sequentia 阅读全文
posted @ 2019-08-01 20:03 慢行厚积 阅读(3860) 评论(0) 推荐(0) 编辑
摘要: 之前我们使用nn.Sequential()都是直接写死的,就如下所示: 那如果我们想要根据条件一点点添加进去,那就可以使用其的add_module方法 torch.nn.Module.add_module 添加子模块到当前模块中 该添加子模块能够使用给定的名字name来访问 参数: name (st 阅读全文
posted @ 2019-08-01 19:52 慢行厚积 阅读(18439) 评论(0) 推荐(2) 编辑
摘要: 1.DataParallel layers (multi-GPU, distributed) 1)DataParallel 实现模块级别的数据并行 该容器是通过在batch维度上将输入分到指定的device中来在给定的module应用上实现并行。在前向传播中,模块module将在每个设备device 阅读全文
posted @ 2019-08-01 19:42 慢行厚积 阅读(14614) 评论(0) 推荐(0) 编辑
摘要: parse_known_args()方法的用处就是有些时候,你的选项配置可能不会在一个函数或包中调用完成 在很多使用,我们可能会需要根据一些输入的选项,比如在深度学习中,我们可能会根据传入的模型设置--model来决定我们调用的是那个模型代码,然后在该模型中还会有一部分的选项设置 那么这时候就会出现 阅读全文
posted @ 2019-07-29 23:16 慢行厚积 阅读(15510) 评论(1) 推荐(4) 编辑
摘要: https://docs.python.org/3.6/library/functools.html 从名字可以看出,该函数的作用就是部分使用某个函数,即冻结住某个函数的某些参数,让它们保证为某个值,并生成一个可调用的新函数对象,这样你就能够直接调用该新对象,并且仅用使用很少的参数 该参数源码: 举 阅读全文
posted @ 2019-07-29 20:43 慢行厚积 阅读(3777) 评论(0) 推荐(0) 编辑
摘要: 返回所给tensor的矩阵范数或向量范数 参数: input:输入tensor p (int, float, inf, -inf, 'fro', 'nuc', optional):范数计算中的幂指数值。默认为'fro' dim (int,2-tuple,2-list, optional): 指定计算 阅读全文
posted @ 2019-07-29 20:28 慢行厚积 阅读(75025) 评论(0) 推荐(1) 编辑
摘要: 1)ReflectionPad2d 使用输入边界的反射来填充输入tensor 对于N维的填充,使用torch.nn.functional.pad() 参数: padding(int, tuple):指定填充的大小。如果是一个整数值a,则所有边界都使用相同的填充数,等价于输入(a,a,a,a)。如果是 阅读全文
posted @ 2019-07-29 19:44 慢行厚积 阅读(32179) 评论(0) 推荐(2) 编辑
上一页 1 ··· 15 16 17 18 19 20 21 22 23 ··· 64 下一页