机器学习:实验二:逻辑回归算法实现与测试

实验二:逻辑回归算法实现与测试

 

一、实验目的

深入理解对数几率回归(即逻辑回归的)的算法原理,能够使用 Python 语言实现对数

几率回归的训练与测试,并且使用五折交叉验证算法进行模型训练与评估

 

二、实验内容

(1)从 scikit-learn 库中加载 iris 数据集,使用留出法留出 1/3 的样本作为测试集(注意同分布取样);

(2)使用训练集训练对数几率回归(逻辑回归)分类算法;

(3)使用五折交叉验证对模型性能(准确度、精度、召回率和 F1 值)进行评估和选择;

(4)使用测试集,测试模型的性能,对测试结果进行分析,完成实验报告中实验二的部分。

 

三、算法步骤、代码、及结果

   1. 算法伪代码

步骤1: 加载iris数据集

步骤2: 划分数据集为训练集和测试集(留出法,1/3作为测试集)

步骤3: 初始化逻辑回归模型

步骤4: 使用训练集训练逻辑回归模型

步骤5: 使用五折交叉验证评估模型性能(准确度、精度、召回率和F1值)

步骤6: 使用测试集测试模型性能

步骤7: 输出训练和测试结果(准确率、精度、召回率和F1值)

   2. 算法主要代码

完整源代码\调用库方法(函数参数说明)

# 导入所需的库

from sklearn.datasets import load_iris  # 用于加载数据集

from sklearn.model_selection import train_test_split, cross_val_score  # 用于数据划分和交叉验证

from sklearn.linear_model import LogisticRegression  # 逻辑回归模型

from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score  # 评估指标

 

# 加载iris数据集

iris = load_iris()

X, y = iris.data, iris.target

 

# 使用留出法将数据集划分为训练集和测试集,测试集占1/3

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=1/3, random_state=42)

 

# 初始化逻辑回归模型,max_iter设置为200以确保收敛

logreg = LogisticRegression(max_iter=200)

 

# 使用训练集训练逻辑回归模型

logreg.fit(X_train, y_train)

 

# 使用五折交叉验证评估模型性能,这里我们关注的是准确度

cv_scores = cross_val_score(logreg, X_train, y_train, cv=5, scoring='accuracy')

 

# 在训练集上评估模型性能

accuracy = accuracy_score(y_train, logreg.predict(X_train))  # 准确率

precision = precision_score(y_train, logreg.predict(X_train), average='macro')  # 精度(查准率)

recall = recall_score(y_train, logreg.predict(X_train), average='macro')  # 召回率(查全率)

f1 = f1_score(y_train, logreg.predict(X_train), average='macro')  # F1

 

# 打印训练集的性能指标

print(f"交叉验证平均准确率: {cv_scores.mean():.2f} +/- {cv_scores.std():.2f}")

print(f"训练集准确率: {accuracy:.2f}")

print(f"训练集精度(查准率): {precision:.2f}")

print(f"训练集召回率(查全率): {recall:.2f}")

print(f"训练集F1: {f1:.2f}")

 

调用库方法(函数参数说明)

  • train_test_split(X, y, test_size=1/3, random_state=42): 划分数据集为训练集和测试集,test_size参数指定测试集的比例,random_state用于确保结果的可重复性。
  • LogisticRegression(max_iter=200): 初始化逻辑回归模型,max_iter参数指定最大迭代次数。
  • cross_val_score(model, X, y, cv=5, scoring='accuracy'): 进行交叉验证,cv参数指定折数,scoring参数指定评分标准。
  • accuracy_score(y_true, y_pred): 计算准确率,y_true为真实标签,y_pred为预测标签。
  • precision_score(y_true, y_pred, average='macro'): 计算精度,average参数指定平均方法。
  • recall_score(y_true, y_pred, average='macro'): 计算召回率,average参数指定平均方法。
  • f1_score(y_true, y_pred, average='macro'): 计算F1值,average参数指定平均方法。

 

 

   3. 训练结果截图(包括:准确率、精度(查准率)、召回率(查全率)、F1

 

 

四、实验结果分析

1. 测试结果截图(包括:准确率、精度(查准率)、召回率(查全率)、F1

 

 

  1. 对比分析

训练集与测试集性能对比

准确率对比:比较模型在训练集和测试集上的准确率,检查是否有过拟合或欠拟合的现象。如果训练集的准确率远高于测试集,可能存在过拟合;如果测试集的准确率远高于训练集,可能存在数据泄露或模型欠拟合。

精度、召回率和F1值对比:同样,对比这些指标在训练集和测试集上的表现,分析模型在不同数据集上的稳定性和一致性。

交叉验证结果分析

稳定性:通过五折交叉验证得到的标准差可以衡量模型性能的稳定性。如果标准差较小,说明模型在不同训练集划分下的性能较为稳定;如果标准差较大,则模型性能可能对数据划分敏感。

参数调整的影响

如果在实验中调整了逻辑回归模型的参数(例如正则化强度、最大迭代次数等),可以对比不同参数设置下的性能,分析哪些参数对模型性能有显著影响。

不同分类阈值的影响

逻辑回归模型的分类阈值默认为0.5,但这个阈值是可以调整的。对比不同阈值下的性能指标,可以找到最优的分类阈值。

模型泛化能力

通过比较训练集和测试集的性能,可以评估模型的泛化能力。一个好的模型应该在训练集上有较高的准确率,同时在未见过的测试集上也能保持较好的性能。

数据不平衡的影响

如果数据集中的类别分布不均匀,需要分析这对模型性能的影响。可以通过调整类别权重或使用其他技术来处理数据不平衡问题,并对比处理前后的性能差异。

 

posted @ 2024-12-15 10:23  痛苦代码源  阅读(13)  评论(0编辑  收藏  举报