机器学习:决策树(决策树解决回归问题、决策树算法的局限性)

一、解决回归问题的思路

 1)思路对比

  • 解决分类问题:根据模型参数训练结束后,对每个“叶子”节点的样本数据进行投票,规定数量最多的样本的类型为该“叶子”的预测类型;
  • 解决回归问题根据模型参数划分结束后,对每个“叶子”节点处 的相应的数据输出值的平均值,作为该“叶子”的预测值;(也就是训练结束后,每个“叶子”处可能有多个数值,取多个数值的平均值作为该“叶子”的预测值,根据特征值预测未知的样本数据时,如果最终计算结果在该“叶子”上,认为该“叶子”的预测值为该特征值对应的样本的数据;)

 

 2)scikit-learn 的决策树算法

  • 两个算法的参数相同,参数的功能相同;
  1. DecisionTreeClassifier():解决分类问题;
  2. DecisionTreeRegressor():解决回归问题;

 

 3)判断模型过拟合 / 欠拟合

 

 4)代码

  • 复制代码
    import numpy as np
    import matplotlib.pyplot as plt
    from sklearn import datasets
    
    boston = datasets.load_boston()
    X = boston.data
    y = boston.target
    
    from sklearn.model_selection import train_test_split
    X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=666)
    
    from sklearn.tree import DecisionTreeRegressor
    dt_reg = DecisionTreeRegressor()
    dt_reg.fit(X_train, y_train)
    
    dt_reg.score(X_test, y_test)
    # 模型对测试数据集上的准确率:0.6946080795352323
    
    dt_reg.score(X_train, y_train)
    # 模型在训练数据集上的准确率:1.0
    复制代码

     

  • 分析:模型对训练数据集的预测准确度:100%,但在测试数据集上的准确度:69%,模型过拟合;
  • 一般过拟合:
  1. 模型在训练数据集上的表现非常好;
  2. 模型在测试数据集上的表现不好;

 

 

二、决策树算法的局限性

 1)局限性一

  •  决策树模型的决策边界都是与坐标轴平行的,永远不会产生斜线,决策边界可能不准确;

 

  • 情景一:
  1. 左一图:原始数据分布;
  2. 中间图:决策树模型得到的决策边界;
  3. 右一图:为线性模型得到的决策边界;
  •     、、、、、、 

 

  • 情景二:此种数据分布情况,使用决策树算法不能很好的进行分类,其决策边界有可能是右侧图形态;

 

 2)局限性二

  • 对个别数据比较敏感:数据集中样本的增减,对模型的训练影响较大;

 

posted @   何永灿  阅读(1446)  评论(0编辑  收藏  举报
编辑推荐:
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
阅读排行:
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· 字符编码:从基础到乱码解决
点击右上角即可分享
微信分享提示