Deep Learning 26:读论文“Maxout Networks”——ICML 2013

论文Maxout Networks实际上非常简单,只是发现一种新的激活函数(叫maxout)而已,跟relu有点类似,relu使用的max(x,0)是对每个通道的特征图的每一个单元执行的与0比较最大化操作,而maxout是对5个通道的特征图在通道的维度上执行最大化操作

这些论文已经有很多前人帮我们解读了,所以不需要自己再费心理解,非常好,所以自己也不需要再写什么多余的解读了,该说的下面的文献都说了。

 

基础资料

论文翻译:Maxout Networks,这篇博文讲得非常仔细非常清楚,必须仔细看

其他资料:深度学习(二十三)Maxout网络学习-ICML 2013

Deep learning:四十五(maxout简单理解)

posted @ 2016-09-29 14:21  夜空中最帅的星  阅读(558)  评论(0编辑  收藏  举报