Fork me on GitHub
摘要: 根据deeplearn.ai吴恩达深度学习课程3.11总结 因为如果W初始化为0 则对于任何Xi,每个隐藏层对应的每个神经元的输出都是相同的,这样即使梯度下降训练,无论训练多少次,这些神经元都是对称的,无论隐藏层内有多少个结点,都相当于在训练同一个函数。 阅读全文
posted @ 2017-12-17 20:45 郭耀华 阅读(4779) 评论(0) 推荐(0) 编辑