摘要: 这篇论文提出了AlexNet,奠定了深度学习在CV领域中的地位。 1. ReLu激活函数 2. Dropout 3. 数据增强 网络的架构如图所示 包含八个学习层:五个卷积神经网络和三个全连接网络,并且使用了最大池化。 RELU非线性层 传统的神经网络的输出包括$tanh$ 和 $ y = (1+e 阅读全文
posted @ 2019-08-18 11:41 陈柯成 阅读(1612) 评论(0) 推荐(0) 编辑