摘要: 本文在调参记录23的基础上,增加卷积核的个数,最少是64个,最多是256个,继续测试深度残差网络+自适应参数化ReLU激活函数在cifar10数据集上的效果。 自适应参数化ReLU激活函数被放在了残差模块的第二个卷积层之后,它的基本原理如下: Keras程序: #!/usr/bin/env pyth 阅读全文
posted @ 2020-05-21 09:00 世俗杂念 阅读(347) 评论(0) 推荐(0) 编辑