摘要:
http://blog.csdn.net/sunmenggmail/article/details/13998255 阅读全文
摘要:
https://zhuanlan.zhihu.com/p/26268559 分类问题的目标变量是离散的,而回归是连续的数值。 分类问题,都用 onehot + cross entropy training 过程中,分类问题用 cross entropy,回归问题用 mean squared erro 阅读全文
摘要:
https://en.wikipedia.org/wiki/Main_Page 阅读全文
摘要:
知乎上关于似然的一个问题:https://www.zhihu.com/question/54082000 概率(密度)表达给定下样本随机向量的可能性,而似然表达了给定样本下参数(相对于另外的参数)为真实值的可能性。 http://www.cnblogs.com/zhsuiy/p/4822020.ht 阅读全文
摘要:
http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/ softmax 在 Logistic Regression 里起到的作用是将线性预测值转化为类别概率 1.最大似然估计通 阅读全文
摘要:
维基上corss entropy的一部分 知乎上也有一个类似问题:https://www.zhihu.com/question/36307214 cross entropy有二分类和多分类的形式,分别对应sigmoid和softmax The logistic loss is sometimes c 阅读全文
摘要:
http://www.cnblogs.com/rocketfan/p/4083821.html lr的损失函数是 cross entropy loss, adaboost的损失函数是 expotional loss ,svm是hinge loss,常见的回归模型通常用均方误差loss。 在神经网络中 阅读全文