逻辑回归实践

1.逻辑回归是怎么防止过拟合的?为什么正则化可以防止过拟合?(大家用自己的话介绍下)

逻辑回归通过正则化来防止过拟合;正则化可以防止过拟合是因为过拟合的时候,拟合函数的系数往往非常大,而正则化是

  通过约束参数的范数使其不要太大,所以可以在一定程度上减少过拟合情况,以L2正则化为例,正则项会使权重趋于0,就

  意味着大量权重就和0没什么差别了,此时网络就变得很简单,拟合能力变弱,从高方差往高偏差的方向移动。

2.用logiftic回归来进行实践操作,数据不限。

import pandas as pd
import numpy as np
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import  StandardScaler
from sklearn.metrics import classification_report

data = pd.read_csv('venv/data/wine.csv')
x=data.iloc[:,1:]
y=data.iloc[:,0]
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=5)
LR_model=LogisticRegression()
LR_model.fit(x_train,y_train)
pre=LR_model.predict(x_test)
print('模型的正确率:',LR_model.score(x_test,y_test))
print('输出模型的分类:\n',classification_report(y_test,pre))

  

 

posted @ 2020-04-27 15:50  杜嘟嘟  阅读(169)  评论(0编辑  收藏  举报