摘要: 先上caffe dropout_layer.cpp源码,如下: 原始的dropout的原理: 在训练时,每个神经单元以概率p被保留(dropout丢弃率为1 p);在测试阶段,每个神经单元都是存在的,权重参数w要乘以p,成为:pw。测试时需要乘上p的原因:考虑第一隐藏层的一个神经元在dropout之 阅读全文
posted @ 2018-09-19 15:39 木易修 阅读(1385) 评论(0) 推荐(0) 编辑