摘要:
https://www.cnblogs.com/wj-1314/p/9754072.html 激活函数:常用的激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者ReLU常见于卷积层 在卷积神经网络中,激活函数一般用ReLU(The Rectifi 阅读全文
摘要:
https://www.cnblogs.com/wj-1314/p/9754072.html 激活函数:常用的激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者ReLU常见于卷积层 在卷积神经网络中,激活函数一般用ReLU(The Rectifi 阅读全文