摘要: 深度学习中的激活函数与梯度消失介绍(Sigmoid, tanh, ReLU, Leaky ReLU, ELU) 阅读全文
posted @ 2017-05-27 15:19 Will的笔记 阅读(19028) 评论(1) 推荐(3) 编辑