摘要: NN representation 这一课主要是讲3层神经网络 下面是常见的 activation 函数.sigmoid, tanh, ReLU, leaky ReLU. Sigmoid 只用在输出0/1 时候的output layer, 其他情况基本不用,因为tanh 总是比sigmoid 好. 阅读全文
posted @ 2018-04-19 23:14 mashuai_191 阅读(392) 评论(0) 推荐(0) 编辑