摘要: 在该文章的两大创新点:一个是PReLU,一个是权值初始化的方法。下面我们分别一一来看。 PReLU(paramter ReLU) 所谓的PRelu,即在 ReLU激活函数的基础上加入了一个参数,看一个图就明白了: 右边的图上多了一个参数吧,在负半轴上不再为0,而是一个可以学习的斜率。 很容易明白。实验结果显示该方法可以提高识别率。 权值初始化的方法: 对于文中的权值初始化问题... 阅读全文
posted @ 2016-12-31 11:53 殷大侠 阅读(3316) 评论(1) 推荐(2) 编辑