上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 27 下一页

2019年10月27日

摘要: https://blog.csdn.net/lipengcn/article/details/80373744 阅读全文
posted @ 2019-10-27 22:37 TMatrix52 阅读(88) 评论(0) 推荐(0)
摘要: https://cosx.org/2017/05/bandit-and-recommender-systems/#fn:http-arxiv-org-a 阅读全文
posted @ 2019-10-27 17:05 TMatrix52 阅读(218) 评论(0) 推荐(0)
摘要: https://zhuanlan.zhihu.com/p/21404922 阅读全文
posted @ 2019-10-27 16:03 TMatrix52 阅读(500) 评论(0) 推荐(0)

2019年10月23日

摘要: 损失函数综述 https://zhuanlan.zhihu.com/p/36503849 简单的交叉熵损失函数,你真的懂了吗? https://zhuanlan.zhihu.com/p/38241764 损失函数 - 交叉熵损失函数 https://zhuanlan.zhihu.com/p/3570 阅读全文
posted @ 2019-10-23 17:29 TMatrix52 阅读(133) 评论(0) 推荐(0)

2019年10月21日

摘要: https://blog.csdn.net/han_xiaoyang 阅读全文
posted @ 2019-10-21 16:38 TMatrix52 阅读(92) 评论(0) 推荐(0)

2019年10月20日

摘要: 推荐系统干货总结 阅读全文
posted @ 2019-10-20 22:43 TMatrix52 阅读(95) 评论(0) 推荐(0)
摘要: AUC 广告点击率预估是怎么回事? 互联网广告CPM,CPC,CPA的魔咒和圣杯 阅读全文
posted @ 2019-10-20 21:54 TMatrix52 阅读(67) 评论(0) 推荐(0)
摘要: GBDT中的树是回归树(不是分类树),GBDT用来做回归预测,调整后也可以用于分类。当采用平方误差损失函数时,每一棵回归树学习的是之前所有树的结论和残差,拟合得到一个当前的残差回归树,残差的意义如公式:残差 = 真实值 - 预测值 。 https://zhuanlan.zhihu.com/p/306 阅读全文
posted @ 2019-10-20 15:56 TMatrix52 阅读(218) 评论(0) 推荐(0)

2019年10月15日

摘要: LightGBM https://lightgbm.readthedocs.io/en/latest/Installation-Guide.html#id15 阅读全文
posted @ 2019-10-15 19:18 TMatrix52 阅读(102) 评论(0) 推荐(0)

2019年10月14日

摘要: Eigen: https://eigen.tuxfamily.org/dox/GettingStarted.html 阅读全文
posted @ 2019-10-14 20:39 TMatrix52 阅读(102) 评论(0) 推荐(0)
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 27 下一页

导航