线性回归:逻辑回归

线性模型:逻辑回归

引言

线性回归是一种非常古老的方法,也是传统统计的一部分。机器学习线性回归涉及训练集和测试集。这样,就可以通过利用交叉验证与其他模型和算法进行比较。传统的线性回归对整个数据集进行训练和测试。这仍然是一种常见的做法,可能是因为线性回归往往是欠拟合而不是过度拟合。

机器学习中的逻辑回归

逻辑回归的步骤如下:

  • 加载数据为特征与目标,X, y
  • 数据切分为训练集和测试集
  • 在训练集数据上训练逻辑回归模型
  • 在测试集上测试模型的性能

提供训练集和测试集

from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=7, stratify=y
)

train_test_split 会分别创建训练集和测试集,注意 stratify=y,是指分层,这意味着训练集和测试集中每个类型的样本频率与总体样本一致。

from sklearn.linear_model import LogisticRegression

lr = LogisticRegression()
lr.fit(X_train, y_train)
y_pred = lr.predict(X_test)

导入 LogisticRegression,拟合训练数据,并给出在测试集上的预测结果。

from sklearn.metrics import accuracy_score

accuracy_score(y_test, y_pred)

检查在测试数据上准确率 accuracy_score

准确率在不平衡数据集上不是一个好的指标,因为只要一个预测器预测数据中的较多的那一类就可以获得较高的准备率。

posted @ 2024-11-19 15:16  JPL-JUNO  阅读(2)  评论(0编辑  收藏  举报