摘要: 请列举AlexNet的特点 使用ReLU作为激活函数,并验证其效果在较深的网络超过了Sigmoid,成功解决了sigmoid在网络较深时梯度消失问题 使用dropout(丢弃学习)随机忽略一部分神经元防止过拟合 在CNN中使用重叠的最大池化,此前CNN中普遍使用平均池化,AlexNet全部使用最大池 阅读全文
posted @ 2022-06-14 23:11 野哥李 阅读(19) 评论(0) 推荐(0) 编辑