摘要: ReLU激活函数只能在隐藏层中使用。 Sigmoid/Logistic和Tanh函数不应该用于隐藏层,因为它们会在训练过程中引起问题。 Swish函数用于深度大于40层的神经网络会好很多。 输出层的激活函数是由你要解决的预测问题的类型决定的。以下是一些需要记住的基本原则: 回归-线性激活函数 二元分 阅读全文
posted @ 2023-07-06 21:46 哎呦哎(iui) 阅读(22) 评论(0) 推荐(0) 编辑