摘要: 神经网络中使用激活函数来加入非线性因素,提高模型的表达能力。 本文对ReLU及其变种,Swish,Maxout,Sigmoid等做了介绍. 阅读全文
posted @ 2017-02-18 13:26 康行天下 阅读(109482) 评论(10) 推荐(22) 编辑