keras中损失函数简要总结

from keras.losses import *

以下是正文。

方差 MSE mean_squared_error

方差。
(差点忘了方差是什么,丢死人。)

注重单个巨大偏差。

平均绝对差 MAE mean_absolute_error

差的绝对值的平均数。

平均对待每个偏差。

平均误差百分数 MAPE mean_absolute_percentage_error

误差百分数(非负)的平均数。比如50和150对100的误差百分数都是50。

自己感受。

对数方差 MSLE mean_squared_logarithmic_error

对数的方差。(会将值先+1再取对数)

Hinge

奇怪。

logcosh

log(cosh(error))。

据说类似方差。

交叉熵 Cross Entropy

哦,原来数组是batch数组啊。我还以为是sequence数组呢。那我要是返回XX怎么搞啊。

有人说回归问题常用方差,分类问题常用交叉熵。

有人言,交叉熵描述了两个概率分布的距离

如果要将神经网络的输出转化为概率分布,使用softmax。(刚才写成sigmoid了,又丢人了)

keras中有binary_crossentropy和categorical_crossentropy。不知道有什么区别。

posted @ 2021-02-27 20:49  Utoрia  阅读(548)  评论(0编辑  收藏  举报