文章分类 -  深度学习系列专题

本系列主要利用pytorch深度学习框架进行coding,另一方面进行网络结构的讲解,损失函数优化方法数学原理的描述等。
摘要:深度学习中定义的损失函数基本上都是极度非凸的函数,仅使用梯度下降法(SGD)很容易陷入局部最优解,本系列打算讲解以下方法: 1、SGD (On the importance of initialization and momentum in deep learning) 2、momentum 3、N 阅读全文
posted @ 2019-04-01 21:52 琴影 阅读(118) 评论(0) 推荐(0) 编辑