摘要: 在所有依靠Gradient Descent和Backpropagation算法来学习的Neural Network中,普遍都会存在Gradient Vanishing Problem。Backpropagation的运作过程是,根据Cost Function进行反向传播,利用Chain Rule去计 阅读全文
posted @ 2018-05-24 05:28 Junfei_Wang 阅读(640) 评论(0) 推荐(1) 编辑