Deep Learning 26:读论文“Maxout Networks”——ICML 2013
论文Maxout Networks实际上非常简单,只是发现一种新的激活函数(叫maxout)而已,跟relu有点类似,relu
使用的max(x,0)是对每个通道的特征图的每一个单元执行的与0比较最大化操作,而maxout
是对5个通道的特征图在通道的维度上执行最大化操作
这些论文已经有很多前人帮我们解读了,所以不需要自己再费心理解,非常好,所以自己也不需要再写什么多余的解读了,该说的下面的文献都说了。
基础资料
论文翻译:Maxout Networks,这篇博文讲得非常仔细非常清楚,必须仔细看