摘要: softmax和sigmoid实际上都是属于logistic regression,sigmoid是二分类的lr,拟合Bernoulli distribution(二项分布);0softmax是多分类的lr,拟合Multinomial distribution(多项分布)。 sigmoid函数可以很 阅读全文
posted @ 2017-05-01 17:51 有梦就要去实现他 阅读(300) 评论(0) 推荐(0) 编辑
摘要: http://blog.csdn.net/sunmenggmail/article/details/13998255 阅读全文
posted @ 2017-05-01 17:24 有梦就要去实现他 阅读(178) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/26268559 分类问题的目标变量是离散的,而回归是连续的数值。 分类问题,都用 onehot + cross entropy training 过程中,分类问题用 cross entropy,回归问题用 mean squared erro 阅读全文
posted @ 2017-05-01 17:21 有梦就要去实现他 阅读(4046) 评论(0) 推荐(0) 编辑
摘要: https://en.wikipedia.org/wiki/Main_Page 阅读全文
posted @ 2017-05-01 16:45 有梦就要去实现他 阅读(7581) 评论(0) 推荐(0) 编辑
摘要: 知乎上关于似然的一个问题:https://www.zhihu.com/question/54082000 概率(密度)表达给定下样本随机向量的可能性,而似然表达了给定样本下参数(相对于另外的参数)为真实值的可能性。 http://www.cnblogs.com/zhsuiy/p/4822020.ht 阅读全文
posted @ 2017-05-01 16:44 有梦就要去实现他 阅读(2651) 评论(0) 推荐(0) 编辑
摘要: http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/ softmax 在 Logistic Regression 里起到的作用是将线性预测值转化为类别概率 1.最大似然估计通 阅读全文
posted @ 2017-05-01 15:46 有梦就要去实现他 阅读(837) 评论(0) 推荐(0) 编辑
摘要: 维基上corss entropy的一部分 知乎上也有一个类似问题:https://www.zhihu.com/question/36307214 cross entropy有二分类和多分类的形式,分别对应sigmoid和softmax The logistic loss is sometimes c 阅读全文
posted @ 2017-05-01 12:35 有梦就要去实现他 阅读(826) 评论(0) 推荐(0) 编辑
摘要: http://www.cnblogs.com/rocketfan/p/4083821.html lr的损失函数是 cross entropy loss, adaboost的损失函数是 expotional loss ,svm是hinge loss,常见的回归模型通常用均方误差loss。 在神经网络中 阅读全文
posted @ 2017-05-01 12:33 有梦就要去实现他 阅读(817) 评论(0) 推荐(0) 编辑