03 2017 档案

摘要:http://blog.csdn.net/xiajun07061225/article/details/7459206 http://www.cplusplus.com/reference/set/multiset/ http://blog.csdn.net/lwbeyond/article/det 阅读全文
posted @ 2017-03-27 21:51 合唱团abc 阅读(153) 评论(0) 推荐(0) 编辑
摘要:https://zhidao.baidu.com/question/104592558.html 阅读全文
posted @ 2017-03-27 14:26 合唱团abc 阅读(165) 评论(0) 推荐(0) 编辑
摘要:gbm算法流程图: gbdt 参数:参考scikit-learn The overall parameters can be divided into 3 categories: Tree-Specific Parameters: Defines the minimum number of samp 阅读全文
posted @ 2017-03-24 17:05 合唱团abc 阅读(652) 评论(0) 推荐(0) 编辑
摘要:条款49: 了解new-handler的行为 operator new 和 operator delete只适合用来分配单一对象。array所用的内存由operator new[]分配出来,并由operator delete[] 释放。 1、了解new-handler的行为 当operator ne 阅读全文
posted @ 2017-03-23 21:55 合唱团abc 阅读(192) 评论(0) 推荐(0) 编辑
摘要:softmax回归模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签y可以取两个以上的值,softmax回归是有监督的。 在logistic回归中,预测函数为: hΘ(x)=11+exp(ΘTx) 损失函数为 $ 阅读全文
posted @ 2017-03-13 13:26 合唱团abc 阅读(333) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/23713529?refer=passer 阅读全文
posted @ 2017-03-08 10:53 合唱团abc 阅读(172) 评论(0) 推荐(0) 编辑
摘要:转自: http://www.cnblogs.com/jasonfreak/p/5448385.html https://www.zhihu.com/question/28641663/answer/41653367 阅读全文
posted @ 2017-03-07 17:28 合唱团abc 阅读(169) 评论(0) 推荐(0) 编辑
摘要:http://blog.csdn.net/blues1021/article/details/45054159 阅读全文
posted @ 2017-03-03 14:20 合唱团abc 阅读(1957) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。
posted @ 2017-03-03 14:20 合唱团abc 阅读(8) 评论(0) 推荐(0) 编辑
摘要:http://www.cnblogs.com/haore147/p/3629895.html http://www.cnblogs.com/cmt/p/3279312.html 首先 http://www.codecogs.com/latex/eqneditor.php 中输入得到Latex公式, 阅读全文
posted @ 2017-03-03 10:27 合唱团abc 阅读(221) 评论(0) 推荐(0) 编辑
摘要:工业界机器学习典型问题: 正负样本分布极不均匀(通常<1:10000),有什么较好的方案构造训练集的正负样本分布?构造后如何解决训练数据与预测的分布不一致? 处理内在不均衡 内在不均衡就是指数据本身特性决定了它的不均衡性。即使获取更多的数据,仍然改变不了数据的不均衡属性。 解决方案: F1 Scor 阅读全文
posted @ 2017-03-01 17:04 合唱团abc 阅读(14859) 评论(0) 推荐(1) 编辑
摘要:Online gradient descent(OGD) produces excellent prediction accuracy with a minimum of computing resources.However, in practice another key considerati 阅读全文
posted @ 2017-03-01 14:51 合唱团abc 阅读(2435) 评论(0) 推荐(0) 编辑
摘要:过拟合的原因:使用的模型过于复杂,根据VC维理论:VC维很高的时候,就容易发生bias很低,但variance很高的情形. 解决过拟合最常用的方法就是regularization, 常用的有:L1正则, L2正则等.L1正则会使得参数稀疏化, L2正则可以起到平滑的作用, 从贝叶斯理论的角度审视下正 阅读全文
posted @ 2017-03-01 11:50 合唱团abc 阅读(2833) 评论(1) 推荐(1) 编辑

点击右上角即可分享
微信分享提示