[Sklearn] Linear regression models to fit noisy data

Ref: [Link] sklearn各种回归和预测【各线性模型对噪声的反应】

Ref: Linear Regression 实战【循序渐进思考过程】

Ref: simple linear regression详解【涉及到假设检验】

 

引申问题,如何拟合sin数据呢? 

如果不引入sin这样周期函数,可以使用:scikit learn 高斯过程回归【有官方例子】

参考:[Bayesian] “我是bayesian我怕谁”系列 - Gaussian Process 

牛津讲义:An Introduction to Fitting Gaussian Processes to Data

博客:Fitting Gaussian Process Models in Python

 

 

 

####3.1 决策树回归####
from sklearn import tree
model_DecisionTreeRegressor = tree.DecisionTreeRegressor()

Ref: [ML] Decision Tree & Ensembling Metholds

参见链接中:构造决策树算法的理解。

 

####3.2 线性回归####
from sklearn import linear_model
model_LinearRegression = linear_model.LinearRegression()

Ref: ML Glossary - Linear Regression【帮助理解原理】

Ref: [Scikit-learn] 1.1 Generalized Linear Models - from Linear Regression to L1&L2【有示例代码,模型参数理解】

 

####3.3 SVM回归####
from sklearn import svm
model_SVR = svm.SVR()

[Scikit-learn] 1.4 Support Vector Regression【依据最外边距】

SVM回归结果出现问题,这是为什么?调参后可以么?是否取决于”核“的选取?

kernel='rbf' 出现上述状况;kernel='linear",则恢复正常。

Ref: Parameter Selection for Linear Support Vector Regression【一篇paper】

 

####3.4 KNN回归####
from sklearn import neighbors
model_KNeighborsRegressor = neighbors.KNeighborsRegressor()

聚类回归也能做线性拟合?

Ref: Nearest Neighbors regression

Ref: https://coding.m.imooc.com/questiondetail.html?qid=84216

貌似是利用”最近的五个点“,自然就不合适了。

 

####3.5 随机森林回归####
from sklearn import ensemble
model_RandomForestRegressor = ensemble.RandomForestRegressor(n_estimators=20)    #这里使用20个决策树

 

一棵树不行,多棵树自然也不行。

不得不说的是:随机森林是集成学习中可以和梯度提升树GBDT分庭抗礼的算法,尤其是它可以很方便的并行训练,在如今大数据大样本的的时代很有诱惑力。

 

####3.6 Adaboost回归####
from sklearn import ensemble
model_AdaBoostRegressor = ensemble.AdaBoostRegressor(n_estimators=50)    #这里使用50个决策树

 

这里取消了sin的噪声,但还是"树"本身的问题。

Ref: https://blog.csdn.net/sunflower_sara/article/details/81214290【bagging, boosting的区别】

 

并行计算:

Bagging:各个预测函数可以并行生成。

Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。

偏差和方差:

bagging是减少variance,而boosting是减少bias。

bias度量模型预测结果和真实结果的偏离程度,刻画模型算法本身的拟合能力。

variance度量同样大小的训练集的变动导致的学习能力的变化,刻画数据的分布情况造成的影响。

 

####3.7 GBRT回归####
from sklearn import ensemble
model_GradientBoostingRegressor = ensemble.GradientBoostingRegressor(n_estimators=100)    #这里使用100个决策树

在Boosting算法中,

当采取平方误差损失函数时,损失函数刚好表达的是当前模型的拟合残差,最优化比较方便;当采取指数损失函数时,也很方便;

但对于一般函数时,最优化十分困难。因此,利用最速下降的近似法,即利用损失函数的负梯度在当前模型的值,作为回归问题中Boosting算法的残差的近似值。

在回归问题中,

    • 这称为梯度提升回归树(GBRT);
    • 分类问题则称为梯度提升决策树(GBDT);

 

[Boosting ----> GBDT ----> XGBoost]

GBDT的性能相对于Boosting有一定的提升,它和AdaBoost都是Boosting族方法的一种。

XGBoost的性能在GBDT上又有一步提升。

 

对XGBoost最大的认知在于其能够自动地运用CPU的多线程进行并行计算,同时在算法精度上也进行了精度的提高。 由于GBDT在合理的参数设置下,往往要生成一定数量的树才能达到令人满意的准确率,在数据集较复杂时,模型可能需要几千次迭代运算,但是XGBoost利用并行的CPU更好的解决了这个问题。

传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。顺便提一下,xgboost工具支持自定义代价函数,只要函数可一阶和二阶求导。

 

####3.8 Bagging回归####
from sklearn.ensemble import BaggingRegressor
model_BaggingRegressor = BaggingRegressor()

Ref: Bagging与随机森林算法原理小结【博客不错】

对于这部分大约36.8%的没有被采样到的数据(因为是无放回采样),我们常常称之为袋外数据(Out Of Bag, 简称OOB)。这些数据没有参与训练集模型的拟合,因此可以用来检测模型的泛化能力。

bagging对于弱学习器没有限制,这和Adaboost一样。但是最常用的一般也是决策树和神经网络。

"随机森林” 是 Bagging算法 的进化版,也就是说,它的思想仍然是bagging,但是进行了独有的改进。

    • bagging只是针对“样本的采样过程”,对“特征”没有处理;
    • 随机森林对“特征”也进行了筛选。

 

####3.9 ExtraTree极端随机树回归####
from sklearn.tree import ExtraTreeRegressor
model_ExtraTreeRegressor = ExtraTreeRegressor()

Ref: 极端随机树(ET)--Bagging

极端随机树随机森林有两点主要区别:

(1)ET中每棵树采用所有训练样本,即每棵树的样本集相同。

(2)RF在特征子集中选择最优分叉特征,而ET直接随机选择分叉特征。

优缺点:基本与随即森林类似。由于ET采用所有训练样本使得计算量相对RF增大,而采用随机特征,减少了信息增益(比)或基尼指数的计算过程,计算量又相对RF减少。

 

####3.10 ARD贝叶斯ARD回归
model_ARDRegression = linear_model.ARDRegression()

  

Ref: [ML] Bayesian Linear Regression【ARD详见链接】

 

####3.11 BayesianRidge贝叶斯岭回归
model_BayesianRidge = linear_model.BayesianRidge()

Ref: [ML] Bayesian Linear Regression

 

####3.12 TheilSen泰尔森估算
model_TheilSenRegressor = linear_model.TheilSenRegressor()


Ref: 稳健回归(Robustness regression)

Theil-Sen回归是一个参数中值估计器,它适用泛化中值,对多维数据进行估计,因此其对多维的异常点(outliers 外点)有很强的稳健性。

在单变量回归问题中,Theil-Sen方法的Breakdown point为29.3%,也就是说,Theil-Sen方法可以容忍29.3%的数据是outliers。 

 

####3.13 RANSAC随机抽样一致性算法
model_RANSACRegressor = linear_model.RANSACRegressor()


Ref: 稳健回归(Robustness regression)

RANSAC算法在线性和非线性回归中都得到了广泛的应用,而其最典型也是最成功的应用,莫过于在图像处理中处理图像拼接问题,这部分在Opencv中有相关的实现。

RANSAC算法将输入样本分成了两个大的子集:内点(inliers)外点(outliers)。其中内点的数据分布会受到噪声的影响;而外点主要来自于错误的测量手段或者是对数据错误的假设。而RANSAC算法最终的结果是基于算法所确定的内点集合得到的。

 

from sklearn.gaussian_process import GaussianProcessRegressor
from sklearn.gaussian_process.kernels import RBF, ConstantKernel as C

# Instantiate a Gaussian Process model
kernel = C(1.0, (1e-3, 1e3)) * RBF(10, (1e-2, 1e2))
gp = GaussianProcessRegressor(kernel=kernel, n_restarts_optimizer=9)
try_different_method(gp)

高斯回归看样子也不错,在predict(红色)表现良好。

 

End.

posted @ 2019-10-09 08:13  郝壹贰叁  阅读(513)  评论(0编辑  收藏  举报