摘要: 课程7 训练神经网络(part 2) key: 更好的优化 正则化 迁移学习 Fancier Optimization 更好的优化(如何更新梯度) 1.从SGD(随机梯度下降)出发: 问题一:以二维为例(两个都是权重,一个是w1,一个是w2),在w1上前进很慢,在w2上前进很快,导致曲折前进,推广到 阅读全文
posted @ 2021-12-20 17:15 youngsam 阅读(75) 评论(0) 推荐(0) 编辑