2018年5月12日

【MatConvNet代码解析】 vl_nnsoftmaxloss

摘要: 背景知识:http://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 假设softmax层的输入(softmax前一次的输出),或者理解为一般分类器的得分f(x)=</theta,x>中的/theta可以随便减一 阅读全文

posted @ 2018-05-12 11:25 博闻强记2010 阅读(431) 评论(0) 推荐(0) 编辑

Logistic Loss的简单讨论

摘要: 首先应该知道Logistic Loss和Crossing Entropy Loss本质上是一回事。 所以所谓的SoftMaxLoss就是一般二分类LogisitcLoss的推广。之所以在网络中采取这种损失,而不是均方误差的原因是LogisticLoss更易于求导:采用交叉熵做损失要比均方误差更合理。 阅读全文

posted @ 2018-05-12 10:43 博闻强记2010 阅读(8375) 评论(0) 推荐(0) 编辑

导航