深度学习-经典网络架构

 

 

【conv 64 】X2表示同样的same卷积进行两次,这里就不展开2次了,化简表示为一次

resNet让深度学习可以学习的更深,over100层。主要解决梯度消失,

 

 

 公式可以说明,残差和RELU是绝配。

细节:resnet用的是same 卷积,两个张量维度相同,所以便于直接相加。

 

posted @ 2021-10-01 20:46  踏浪前行  阅读(90)  评论(0编辑  收藏  举报