240
ふるさとの雪
不可不趁三十以前立志猛进也。
摘要: 十一、深度学习基础 1.为什么必须在神经网络中引入非线性? 2.ReLU在零点不可导,那么在反向传播中怎么处理? ReLU虽然在零点不可导,但是我们在做反向传播的计算时,对ReLu这个函数的导数分情况讨论,即ReLU在零点时人为地给它赋予一个导数,比如0或者1。例如在下面的ReLU的反向传播函数实现 阅读全文
posted @ 2020-12-22 21:39 _蓑衣客 阅读(1163) 评论(0) 推荐(0) 编辑