Explanation of logistic regression cost function

Explanation of logistic regression cost function

y^=σ(wTx+b)whereσ(z)=11+ezinterprety^=P(y=1x)ify=1:P(yx)=y^ify=0:P(yx)=1y^y=0,1becauseofbinarycostequation.andwecansuchequationtomaintainitscontunityP(yx)=y^y(1y^)1ylog(P(yx))=ylog(y^)+(1y)log(1y^)andoursinglelossfunction=log(P(yx))becauseminimizelossisequivalenttomaximizeP(yx)

对于m个独立样例的数据集时

P(labelsintrainingset)=i=1mP(y(i)x(i))

我们希望通过寻找一组参数使得上式概率最大(maximun likelihood estimation),则

(1)logP()=i=1mlog(P(y(i)x(i)))(2)=i=1m(L(y^(i),yi))(3)=i=1m(L(y^(i),yi))

所以我们定义了成本函数

Cost:J(w,b)=1mi=1mL(y^(i),y(i))

posted @   Link_kingdom  阅读(20)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
点击右上角即可分享
微信分享提示