2020年5月29日
摘要: Rectified linear unit 在神经网络中,常用到的激活函数有sigmoid函数f(x)=11+exp(−x)、双曲正切函数f(x)=tanh(x),今天要说的是另外一种activation function,rectified linear function,f(x)=max(0,x 阅读全文
posted @ 2020-05-29 10:19 sunxing007 阅读(365) 评论(0) 推荐(0) 编辑