返回顶部

请叫我杨先生

导航

2022年1月8日 #

Pytorch 4.7 前向传播和反向传播剖析

摘要: 前向传播 前向传播(forward propagation或forward pass) 指的是:按顺序(从输入层到输出层)计算和存储神经网络中每层的结果。 为了搞清楚前向传播是如何实现的,我们以简单的例子作为切入点,假设输入的样本是 \(X\in R^{d×1}\) ,隐藏层不包括偏置项 \(b\) 阅读全文

posted @ 2022-01-08 23:37 YangShusen' 阅读(934) 评论(0) 推荐(0) 编辑

Pytorch 4.6 Dropout 暂退法

摘要: Waht's Dropout ? 上一节 权重衰减:\(L2\) 正则化 通过介绍添加 \(L_2\) 正则化来减少过拟合的情况的出现。这一节我们使用Dropout Layer 来证明 \(L2\) 正则化的正确性。 Dropout 的意思是每次训练的时候随机损失掉一些神经元, 这些神经元被Drop 阅读全文

posted @ 2022-01-08 21:34 YangShusen' 阅读(705) 评论(0) 推荐(0) 编辑