会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Twq
博客园
首页
新随笔
联系
订阅
管理
2.9逻辑回归中单个和多个训练样本的梯度下降法
1.单个训练样本(损失函数)
在逻辑回归中我们需要做的就是变换参数w和b的值,来最小化损失函数
a也就是sigmoid函数,也就是a=1/(1+e^(-z)),所以dL/dz=dL/da * da/dz = a-y
这就是单个样本实例的一次梯度更新的步骤
2.多个训练样本
下图中有一个很明显的问题就是如果特征数量比较多for循环显示化会导致代码效率极低,因此为了解决这个问题,后面就引入了向量化的概念。 m是样本的数量,其中dw1,dw2,最终得到的值是在整个样本上得到的值,而dz的值则表示的是在第i个样本上得到的值
posted @
2023-03-24 09:44
剑断青丝ii
阅读(
72
) 评论(
0
)
编辑
收藏
举报
刷新页面
返回顶部
公告