loss

## cross-entropy loss

给定两个概率分布:p(理想结果即正确标签向量)和q(神经网络输出结果即经过softmax转换后的结果向量),则通过q来表示p的交叉熵为:

Snipaste_2020-04-18_17-11-22

交叉熵刻画的是通过概率分布q来表达概率分布p的困难程度,其中p是正确答案,q是预测值,也就是交叉熵值越小,两个概率分布越接近

binary cross-entropy loss

交叉熵值越小,两个概率分布越接近

\(L=-[y log \hat{y}+(1-y)log(1-\hat{y})]\)

其中,\(y\)表示样本 i 的 label,正类为1,负类为0

\(\hat y\)表示样本 i 预测为正的概率(sigmoid的输出)(0,1)

Snipaste_2020-04-13_22-20-24

y=1/2 时,

Snipaste_2020-04-13_22-21-59

Snipaste_2020-04-13_22-20-51

对抗损失

image-20200418164735118

参考

https://blog.csdn.net/red_stone1/article/details/80735068

https://zhuanlan.zhihu.com/p/35709485

posted @ 2020-04-20 09:09  clownn  阅读(562)  评论(0编辑  收藏  举报