Fork me on GitHub
摘要: 一. Batch Normalization 对于深度神经网络,训练起来有时很难拟合,可以使用更先进的优化算法,例如:SGD+momentum、RMSProp、Adam等算法。另一种策略则是高改变网络的结构,使其更加容易训练。Batch Normalization就是这个思想。 为什么要做Norma 阅读全文
posted @ 2017-12-15 11:38 郭耀华 阅读(1064) 评论(0) 推荐(1) 编辑