Softmax回归

1.多分类问题

y=argmaxc=1C fc(x;wc)
fc(x;wc)=wcTx+bc, c{1,...,C}
学习准则

pθ(y=c|x)
模型问题
fc(x;wc)=wcTx+bc, c{1,...,C},pθ(y=c|x)

2.Softmax函数

Kx1,...,xk
softmax(xk)=exki=1Kexi
softmax,y=c
pθ(y=c|x)=softmax(wcTx)=ewcTxc=1CewcTx

y^=softmax(WTx)=eWTx1cTeWTx

3.参数学习

3.1模型:Softmax回归


y^=softmax(WTx)=eWTx1cTeWTx

3.2学习准则:交叉熵

y=1Cpr(y|x)log pθ(y|x),prreal,

yTlog y^,y=[I(1=c),I(2=c),...,I(C=c)]T,onehot

3.3优化:梯度下降

R(W)=1Nn=1Nx(n)(y(n))Tlogy^(n)
y=[I(1=c),I(2=c),...,I(C=c)]T,onehot
(R(W))W=1Nn=1Nx(n)(y(n)y^(n))T

4.问题

softmaxlogistic

posted @   筷点雪糕侠  阅读(45)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示