摘要: Self-Normalizing Neural Networks ,长达93页的附录足以成为吸睛的地方(给人感觉很厉害), 此paper提出了新的激活函数,称之为 SELUs ,其具有normalization的功能.给人感觉只是在全连接层有效果,在CNN和RNN中貌似没有提及有效果... 阅读全文
posted @ 2017-08-11 15:40 TensorSense 阅读(568) 评论(0) 推荐(0) 编辑