机器学习B:实验八:随机森林算法实现与测试

一、实验目的

深入理解随机森林的算法原理,进而理解集成学习的意义,能够使用 Python 语言实现

随机森林算法的训练与测试,并且使用五折交叉验证算法进行模型训练与评估。

二、实验内容

(1)从 scikit-learn 库中加载 iris 数据集,使用留出法留出 1/3 的样本作为测试集(注

意同分布取样);

(2)使用训练集训练随机森林分类算法;

(3)使用五折交叉验证对模型性能(准确度、精度、召回率和 F1 值)进行评估和选

择;

(4)使用测试集,测试模型的性能,对测试结果进行分析,完成实验报告中实验八的

部分。

三、算法步骤、代码、及结果

   1. 算法伪代码

输入:训练数据集 D,森林中树的数量 n_estimators,以及其他参数

输出:随机森林模型

 

1. 重复 n_estimators do

   a. D 中随机选择一个样本子集,有放回抽样

   b. 对于子集中的每个样本,随机选择一部分特征

   c. 基于当前选择的样本和特征建立决策树

   d. 训练决策树,直到每个节点都是纯净的或者达到某个条件(如最大深度)

2. 对于每个决策树,记录其预测结果

3. 对所有决策树的预测结果进行投票或平均,得到最终预测

 

对于新的数据点 x

   a. x 输入到每棵决策树中,得到预测结果

   b. 根据多数投票或平均结果,确定 x 的最终预测

 

   2. 算法主要代码

完整源代码\调用库方法(函数参数说明)

from sklearn.datasets import load_iris

from sklearn.model_selection import train_test_split, cross_val_score

from sklearn.ensemble import RandomForestClassifier

from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score

 

# 加载数据集

iris = load_iris()

X, y = iris.data, iris.target

 

# 使用留出法留出1/3的样本作为测试集

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=1/3, random_state=1)

 

# 创建随机森林模型

rf = RandomForestClassifier(n_estimators=100, random_state=1)

 

# 训练模型

rf.fit(X_train, y_train)

 

# 使用五折交叉验证评估模型性能

scores = cross_val_score(rf, X_train, y_train, cv=5, scoring='accuracy')

print(f"五折交叉验证准确率平均值: {scores.mean():.4f}")

 

# 在测试集上测试模型性能

y_pred = rf.predict(X_test)

 

# 计算性能指标

accuracy = accuracy_score(y_test, y_pred)

precision = precision_score(y_test, y_pred, average='macro')

recall = recall_score(y_test, y_pred, average='macro')

f1 = f1_score(y_test, y_pred, average='macro')

 

# 输出性能指标结果

print(f"测试集准确率: {accuracy:.4f}")

print(f"测试集查准率(精度): {precision:.4f}")

print(f"测试集查全率(召回率): {recall:.4f}")

print(f"测试集F1: {f1:.4f}")

 

 

   3. 训练结果截图(包括:准确率、精度(查准率)、召回率(查全率)、F1

 

 

四、实验结果分析

1. 测试结果截图(包括:准确率、精度(查准率)、召回率(查全率)、F1

 

 

2. 对比分析

模型性能随机森林算法在iris数据集上表现出了较高的准确率、精度、召回率和F1值,这表明该算法能够有效地对数据进行分类,并且具有较好的预测准确性

集成学习的优势:随机森林作为一种集成学习方法,通过构建多个决策树并结合它们的预测结果来提高整体的分类性能。这种方法减少了过拟合的风险,并提高了模型的泛化能力。

参数调整的影响随机森林的性能受到多个参数的影响,包括树的数量(n_estimators)、树的最大深度(max_depth)、最小叶节点样本数(min_samples_leaf)等。通过调整这些参数,我们能够在一定程度上提高模型的性能,但同时也要注意避免欠拟合和过拟合。

特征重要性:随机森林提供了特征重要性的评估,这有助于我们识别对分类结果影响最大的特征。这种能力在特征选择和模型解释性方面非常有用。

模型的可解释性:与单一决策树相比,随机森林的可解释性较低,因为模型的复杂性增加了。然而,特征重要性评分提供了一种理解模型预测的方式。

与其他模型的比较:随机森林通常与其他集成模型(如梯度提升树)或简单的分类器(如逻辑回归)进行比较。在许多情况下,随机森林因其出色的性能和对异常值的鲁棒性而被优先选择。

模型的泛化能力:五折交叉验证提供了对模型泛化能力的评估。通过在不同的数据子集上训练和验证模型,我们能够更有信心地估计模型在未见数据上的表现。

实验结论:实验结果表明,随机森林算法是一个强大的分类工具,尤其适用于具有多个特征和复杂关系的数据集。通过细致的参数调整和特征重要性分析,我们能够进一步提升模型的性能,并更好地理解数据。

综上所述,随机森林算法在实验中展现了其作为集成学习方法的优势,尤其是在处理具有多个决策树的复杂数据集时。通过实验,我们不仅加深了对随机森林算法原理的理解,还学会了如何使用交叉验证等技术来评估和优化模型。这些经验对于未来在更广泛的数据集上应用随机森林算法具有重要的指导意义。

 

posted @ 2024-11-27 10:59  痛苦代码源  阅读(15)  评论(0编辑  收藏  举报