机器学习中使用交叉熵为损失函数的原因
总结: 机器学习中有很多损失函数可以用,如欧氏距离,sigmoid函数,softmax函数等,
然而使用交叉熵的原因在于防止梯度消失以及测出实际效果较好的原因吧(个人理解)。
其详细理解,可以参考粘贴的内容:
本文参考:https://mp.weixin.qq.com/s?__biz=MzU4NTY1NDM3MA==&mid=2247483805&idx=1&sn=2e5f19e084fa71e7f32ae9c1717f948d&chksm=fd860890caf18186adc55c64f3df93f1276f878c3c158c0fdddf219ff73ef662a4cc39d226ef&token=255604471&lang=zh_CN#rd