会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Twq
博客园
首页
新随笔
联系
订阅
管理
2023年3月24日
2.9逻辑回归中单个和多个训练样本的梯度下降法
摘要:
1.单个训练样本(损失函数) 在逻辑回归中我们需要做的就是变换参数w和b的值,来最小化损失函数 a也就是sigmoid函数,也就是a=1/(1+e^(-z)),所以dL/dz=dL/da * da/dz = a-y 这就是单个样本实例的一次梯度更新的步骤 2.多个训练样本 下图中有一个很明显的问题就
阅读全文
posted @ 2023-03-24 09:44 剑断青丝ii
阅读(72)
评论(0)
推荐(0)
编辑
公告