随笔分类 -  数据挖掘

摘要:转自:here 注意下面说的全局最优是特殊的情况,一般还是梯度下降的方法还是很容易变成局部最优。 梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式的角度对两者进行分析。 下面的h(x)是要拟合的函数,J(theta)损失函数,thet 阅读全文
posted @ 2017-03-28 17:39 chenhuan001 阅读(471) 评论(0) 推荐(0) 编辑
摘要:最大似然估计学习总结 MadTurtle 转至here 1. 作用 在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数作为真实的参数估计。 2. 离散型 设为离散型随机变量,为多维参数向量,如果随机变量相互独立且概率计算式为P{,则可得概率函数为P{}=,在固 阅读全文
posted @ 2017-02-27 17:53 chenhuan001 阅读(466) 评论(0) 推荐(0) 编辑
摘要:听说xgboost效果很不错,于是准备学习下,但是发现大多数资料都是在讲如何在windows或linux下安装xgboost,而且照着官方文档也没有正确的安装好多线程的xgboost。最后还是从there找到了方法。 1. Mac OSX系统一般自带python,打开终端输入python即可写pyt 阅读全文
posted @ 2016-06-17 23:13 chenhuan001 阅读(9484) 评论(2) 推荐(2) 编辑

点击右上角即可分享
微信分享提示