3. 损失函数和优化介绍

损失函数和优化介绍

1. Loss function

A loss function tells how good our current model classifier is.

1.1 Multiclass SVM loss

L i = ∑ j ≠ y i m a x ( 0 , s j − s y i + Δ ) L_i = \sum_{j \neq y_i}max(0, s_j - s_{y_i} + \Delta) Li=j=yimax(0,sjsyi+Δ)
notation: s = f ( x i , W ) , Δ s = f(x_i, W), \Delta s=f(xi,W),Δ is safety margin

1.2 Regularization

L ( W ) = 1 N ∑ i = 1 N L i ( f ( x i , W ) , y i ) ⏟ D a t a   l o s s + λ R ( W ) ⏟ R e g u l a r i z a t i o n : M o d e l   s h o u l d   b e " s i m p l e " L(W) = \underbrace{\frac{1}{N} \sum^N_{i = 1}L_i(f(x_i, W), y_i)}_{Data\:loss} + \underbrace{\lambda R(W)}_{Regularization: Model \: should \: be "simple"} L(W)=Dataloss N1i=1NLi(f(xi,W),yi)+Regularization:Modelshouldbe"simple" λR(W)
在这里插入图片描述

1.3 Softmax Classifier

在这里插入图片描述
 这里计算的是Softmax的损失函数,其实和交叉熵损失是一个东西。交叉熵损失也就是下面这个公式,其目的是为了保持模型预测的概率与ground truth是同分布的。交叉熵公式如下:
J = − ∑ i = 1 K y i l o g ( P i ) J = -\sum^K_{i=1}y_i log(P_i) J=i=1Kyilog(Pi)

2. Optimization

 这里介绍了数值计算梯度下降和公式计算梯度下降。虽然数值计算梯度下降计算很慢,但是这个可以用来做一个参考,来检测我们写的公式计算梯度是否正确。

posted @ 2020-08-04 10:55  JHadoop  阅读(78)  评论(0编辑  收藏  举报