会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
草莓鲍鲍
漫威粉一枚
博客园
首页
新随笔
联系
管理
订阅
2017年4月21日
斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时7
摘要: 课时7 线性分类器损失函数与最优化(下) 我们为什么要最大化对数概率而非直接最大化概率? 你在做逻辑斯蒂回归时,如果你只是想要最大化概率,那你使用log是无意义的。因为log函数是单调函数,最大化概率和最大化对数概率是等价的。 Softmax vs. SVM 我们调整其中的评分,使值上下浮动,对于S
阅读全文
posted @ 2017-04-21 15:47 懒小小喵
阅读(463)
评论(0)
推荐(0)
编辑
公告