摘要: 2.9逻辑回归中单个和多个训练样本的梯度下降法 1.单个训练样本(损失函数) 在逻辑回归中我们需要做的就是变换参数w和b的值,来最小化损失函数 a也就是sigmoid函数,也就是a=1/(1+e^(-z)),所以dL/dz=dL/da * da/dz = a-y 这就是单个样本实例的一次梯度更新的步骤 2.多个训练样本 下图中有一个很明显的问题就 阅读全文
posted @ 2023-03-24 09:44 剑断青丝ii 阅读(65) 评论(0) 推荐(0) 编辑