摘要: 白色的1×1卷积层是用来降低通道数的,蓝色的卷积层是用来学习特征的 大致解释一下这些数字是怎么分配的。现在我们的通道数是192,于是我们假设最后输出的通道数是256;考虑这些通道如何分配:我们知道3×3的卷积层性质很好(参数不算太多,学习能力也 阅读全文
posted @ 2025-02-27 22:43 最爱丁珰 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 本质和主要改进见下 因为模型更大了,所以要用丢弃法做正则;ReLu则比Sigmoid更能支撑更深的网络(解决了梯度消失);最大汇聚层则让输出更大,梯度更大,训练更容易 还有一些主要区别如下 步长也很大的原因也是当时的算力其实不是很够 池化层更大了就允许像素 阅读全文
posted @ 2025-02-27 20:27 最爱丁珰 阅读(4) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示