摘要: 「导语:有人说深度学习实质上是最优化,但它们具体又有什么不同呢?」 作者:Frank Odom 编译:McGL 如今训练神经网络最常见的方法是使用梯度下降或 Adam 等变种。梯度下降是寻找函数极小值的迭代优化算法。简单的说,在最优化问题中,我们对某个度量 P 感兴趣,想找到一个在某些数据(或分布) 阅读全文
posted @ 2020-11-09 22:34 McGL 阅读(405) 评论(0) 推荐(0) 编辑