Loading

摘要: AlexNet 中包含了比较新的技术点,首次在CNN中成功应用了 ReLu 、Dropout和LRN等Trick。 1.成功使用了Relu作为CNN的激活函数,并验证其效果在较深的网络中超过了Sigmoid成功解决了Simoid在网络较深时的梯度弥散问题。 2.训练时使用了Dropout随机忽略一部 阅读全文
posted @ 2018-04-23 11:18 RainDavi 阅读(208) 评论(0) 推荐(0) 编辑