会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
youngsam
博客园
首页
新随笔
联系
订阅
管理
2021年12月20日
【cs231n】lecture 7 课程笔记
摘要: 课程7 训练神经网络(part 2) key: 更好的优化 正则化 迁移学习 Fancier Optimization 更好的优化(如何更新梯度) 1.从SGD(随机梯度下降)出发: 问题一:以二维为例(两个都是权重,一个是w1,一个是w2),在w1上前进很慢,在w2上前进很快,导致曲折前进,推广到
阅读全文
posted @ 2021-12-20 17:15 youngsam
阅读(75)
评论(0)
推荐(0)
编辑
公告