2.9逻辑回归中单个和多个训练样本的梯度下降法

1.单个训练样本(损失函数)

在逻辑回归中我们需要做的就是变换参数w和b的值,来最小化损失函数


a也就是sigmoid函数,也就是a=1/(1+e^(-z)),所以dL/dz=dL/da * da/dz = a-y


这就是单个样本实例的一次梯度更新的步骤

2.多个训练样本

下图中有一个很明显的问题就是如果特征数量比较多for循环显示化会导致代码效率极低,因此为了解决这个问题,后面就引入了向量化的概念。 m是样本的数量,其中dw1,dw2,最终得到的值是在整个样本上得到的值,而dz的值则表示的是在第i个样本上得到的值

posted @ 2023-03-24 09:44  剑断青丝ii  阅读(72)  评论(0编辑  收藏  举报