11 2021 档案

摘要:5//2=2 5/2=2.5 阅读全文
posted @ 2021-11-30 22:36 祥瑞哈哈哈 阅读(64) 评论(0) 推荐(0) 编辑
摘要:一、loss固定的原因: 当输入变量都比较大时,反向传播时梯度值较小使loss无法收敛。 二、学习率过大,损失值上升。 由于平方损失函数是一个二次函数,所以当学习率大时步长大,导致神经网络越迭代损失值越大。 阅读全文
posted @ 2021-11-29 21:26 祥瑞哈哈哈 阅读(2532) 评论(0) 推荐(0) 编辑
摘要:对1*1块的解释。 如代码所示conv1是1个1*1的卷积块。inplanes是输入通道,width*scale是输出通道。scale是对应所分的块数。kernel_size是确定卷积大小位1。 阅读全文
posted @ 2021-11-20 15:39 祥瑞哈哈哈 阅读(204) 评论(0) 推荐(0) 编辑
摘要:建立专家数个卷积层,并对卷积层进行缩放。 阅读全文
posted @ 2021-11-20 12:26 祥瑞哈哈哈 阅读(53) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示