会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Manuel
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
13
14
15
16
17
18
19
20
21
22
下一页
2019年6月26日
AlexNet,VGG,GoogleNet,ResNet
摘要: AlexNet: VGGNet: 用3x3的小的卷积核代替大的卷积核,让网络只关注相邻的像素 3x3的感受野与7x7的感受野相同,但是需要更深的网络 这样使得参数更少 大多数内存占用在靠前的卷积层,大部分的参数在后面的全连接层 GoogleNet: Inception模块:设计了一个局部网络拓扑结构
阅读全文
posted @ 2019-06-26 15:54 Manuel
阅读(1071)
评论(0)
推荐(0)
编辑
2019年6月25日
静态图与动态图的优劣
摘要: 静态图只建一次,然后不断复用它,容易在图上做优化,图的效率更高 动态图每次使用时建立,不容易优化 静态图可以在磁盘中序列化,可以保存整个网络的结构,可以重载,在部署中很实用 动态图则需要重复之前的代码 动态图相比静态图代码更简洁 在tensorflow静态图中条件和循环需要特定的语法,pytorch
阅读全文
posted @ 2019-06-25 21:21 Manuel
阅读(7672)
评论(3)
推荐(0)
编辑
pytorch中的view
摘要: https://ptorch.com/news/59.html view()相当于reshape(),其中参数若为-1表示当前的size根据其余size推断
阅读全文
posted @ 2019-06-25 12:03 Manuel
阅读(184)
评论(0)
推荐(0)
编辑
pytorch中的forward前向传播机制
摘要: https://blog.csdn.net/u011501388/article/details/84062483
阅读全文
posted @ 2019-06-25 10:24 Manuel
阅读(381)
评论(0)
推荐(0)
编辑
2019年6月24日
.data()与.detach()的区别
摘要: .data()和.detach()都可以获取Variable内部的Tensor,但.detach()更加安全 https://zhuanlan.zhihu.com/p/38475183
阅读全文
posted @ 2019-06-24 15:11 Manuel
阅读(246)
评论(0)
推荐(0)
编辑
2019年6月20日
Argparse模块
摘要: https://www.jianshu.com/p/00425f6c0936 转自:https://blog.csdn.net/yy_diego/article/details/82851661 执行命令python test.py结果如下: 先导入了argparse这个包,然后包中的Argumen
阅读全文
posted @ 2019-06-20 18:00 Manuel
阅读(99)
评论(0)
推荐(0)
编辑
2019年6月19日
pytorch代码调试工具
摘要: https://github.com/zasdfgbnm/TorchSnooper pip install torchsnooper 在函数前加装饰器@torchsnooper.snoop()
阅读全文
posted @ 2019-06-19 21:29 Manuel
阅读(351)
评论(0)
推荐(0)
编辑
迁移学习
摘要: Transfer Learning 当只有一个小的数据集时,修改最后一层的特征到最后的分类输出之间的全连接层,只需要重新随机初始化这部分矩阵,冻结前面层的权重,相当于只训练一个线性分类器。 当有一个稍微大的数据集时,可以微调整个网络,一般将学习率调低来训练,因为最初的网络参数是在Imagenet上收
阅读全文
posted @ 2019-06-19 10:38 Manuel
阅读(168)
评论(0)
推荐(0)
编辑
模型正则化,dropout
摘要: 正则化 在模型中加入正则项,防止训练过拟合,使测试集效果提升 Dropout 每次在网络中正向传播时,在每一层随机将一些神经元置零(相当于激活函数置零),一般在全连接层使用,在卷积层一般随机将整个通道置零而不是单个神经元 Dropout 的两种解释: 1.dropout避免了特征之间的相互适应,假如
阅读全文
posted @ 2019-06-19 10:25 Manuel
阅读(829)
评论(0)
推荐(0)
编辑
2019年6月17日
优化器,SGD+Momentum;Adagrad;RMSProp;Adam
摘要: Optimization 随机梯度下降(SGD): 当损失函数在一个方向很敏感在另一个方向不敏感时,会产生上面的问题,红色的点以“Z”字形梯度下降,而不是以最短距离下降;这种情况在高维空间更加普遍。 SGD的另一个问题:损失函数容易卡在局部最优或鞍点(梯度为0)不再更新。在高维空间鞍点更加普遍 当模
阅读全文
posted @ 2019-06-17 17:38 Manuel
阅读(691)
评论(0)
推荐(0)
编辑
上一页
1
···
13
14
15
16
17
18
19
20
21
22
下一页