上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 23 下一页
摘要: torch.nn.init初始化参数的方法;不同层类型定制化初始化 阅读全文
posted @ 2018-03-03 16:08 叠加态的猫 阅读(13096) 评论(0) 推荐(1) 编辑
摘要: 一、nn.functional函数基本使用;二、搭配使用nn.Module和nn.functional;三、nn.functional函数构造nn.Module类 阅读全文
posted @ 2018-03-03 15:39 叠加态的猫 阅读(8149) 评论(0) 推荐(0) 编辑
摘要: 一、简化前馈网络LeNet;二、优化器基本使用方法;三、网络模块参数定制;四、在训练中动态的调整学习率 阅读全文
posted @ 2018-03-03 15:02 叠加态的猫 阅读(8998) 评论(0) 推荐(0) 编辑
摘要: nn.RNN;nn.RNNCell;nn.Embedding 阅读全文
posted @ 2018-02-28 19:00 叠加态的猫 阅读(3336) 评论(0) 推荐(0) 编辑
摘要: nn.Sequential()对象;nn.ModuleList()对象 阅读全文
posted @ 2018-02-27 09:47 叠加态的猫 阅读(5104) 评论(0) 推荐(0) 编辑
摘要: 卷积;池化;线性;BatchNorm;Dropout;激活函数;激活函数 阅读全文
posted @ 2018-02-26 17:17 叠加态的猫 阅读(5801) 评论(0) 推荐(1) 编辑
摘要: nn.Module原理性介绍 阅读全文
posted @ 2018-02-26 15:18 叠加态的猫 阅读(6739) 评论(0) 推荐(1) 编辑
摘要: 几种最小二乘法实现 阅读全文
posted @ 2018-02-19 15:51 叠加态的猫 阅读(2043) 评论(0) 推荐(1) 编辑
摘要: 一、封装新的PyTorch函数;二、高阶导数;三、梯度检查 阅读全文
posted @ 2018-02-19 11:27 叠加态的猫 阅读(8510) 评论(1) 推荐(0) 编辑
摘要: 查看非叶节点梯度的两种方法;多次反向传播试验 阅读全文
posted @ 2018-02-15 21:13 叠加态的猫 阅读(2900) 评论(2) 推荐(0) 编辑
摘要: Variable类源码简介;Variable类和计算图(Variable使用简介) 阅读全文
posted @ 2018-02-15 20:12 叠加态的猫 阅读(22875) 评论(1) 推荐(1) 编辑
摘要: Tensor存储结构如下, 如图所示,实际上很可能多个信息区对应于同一个存储区,也就是上一节我们说到的,初始化或者普通索引时经常会有这种情况。 一、几种共享内存的情况 view 上面代码,我们通过.storage()可以查询到Tensor所对应的storage地址,可以看到view虽然不是inpla 阅读全文
posted @ 2018-02-14 08:16 叠加态的猫 阅读(5580) 评论(3) 推荐(2) 编辑
摘要: 简单数学操作:逐元素操作、归并操作、比较操作;Numpy和Tensor:数组和张量内存共享、广播原理及模拟、expand方法 阅读全文
posted @ 2018-02-12 18:21 叠加态的猫 阅读(8815) 评论(0) 推荐(1) 编辑
摘要: 普通索引、高阶索引 阅读全文
posted @ 2018-02-12 18:02 叠加态的猫 阅读(5868) 评论(0) 推荐(0) 编辑
摘要: 初始化以及尺寸调整 阅读全文
posted @ 2018-02-12 17:44 叠加态的猫 阅读(4156) 评论(0) 推荐(0) 编辑
上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 23 下一页