摘要: 附加内容:透彻理解熵(包括信息熵和交叉熵) 一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉 第一篇: 利用一些饱和激活函数的如sigmoid激活时,假如利用均方误差损失,那么损失函数向最后一层的权重传递梯度时,梯度公式为 可见梯度与最后一层的激活函数的导数成正比,因此,如果起始输出值比较 阅读全文
posted @ 2019-10-17 12:50 hugh.wei 阅读(3732) 评论(0) 推荐(0) 编辑