2022年1月8日

【深度学习】沐神领读论文:ResNet

摘要: 【摘要】 提出问题:深的神经网络难训练。使用残差学习使容易。非常容易训练,很好的精度,增加层。Imagenet 152层的深度,比vgg更低的复杂度 CIFAR-10小数据,居然能训练100-1000层! COCO的目标检测数据集,用之前学习的残差网络,提升了28%。 【图】 图1:56层不如20层 阅读全文

posted @ 2022-01-08 22:09 yesuuu 阅读(87) 评论(0) 推荐(0) 编辑

【深度学习】沐神论文领读:Alexnet

摘要: 倒数第二层: 现在的倒数第二层是4096个神经元,算是一个很优秀的特征提取。 dropout: 现在CNN通常不会用到那么大的全连接 dropout也就不那么重要,gpu/内存不那么吃紧 但dropout在全连接/RNN/Attention很有用, 初始化: 均值0,方差0.01的高斯随机变量。Be 阅读全文

posted @ 2022-01-08 21:31 yesuuu 阅读(35) 评论(0) 推荐(0) 编辑

导航