摘要: 神经网络中使用激活函数来加入非线性因素,提高模型的表达能力。ReLU(Rectified Linear Unit,修正线性单元) 形式如下: ReLU公式近似推导:: 下面解释上述公式中的softplus,Noi... 阅读全文
posted @ 2019-07-15 22:43 鲁太师 阅读(4490) 评论(0) 推荐(0) 编辑