线性回归

1 一元线性回归

如下对y=2x+7的一次函数进行了模拟回归,其中coef_是斜率,intercept_是截距.

mport matplotlib.pyplot as plt
import numpy as np
from sklearn import linear_model
from sklearn.metrics import mean_squared_error, r2_score

y = [9,11,13,15,17]
x_train= np.arange( 1, 6, 1).reshape([-1,1])

x_test = np.array([[6],[7]])
y_test = [18,22]

# 建一个对象并使用训练集训练模型
regr = linear_model.LinearRegression()
regr.fit(x_train, y)
y_pred = regr.predict(x_test)

# 查看系数
print('斜率是: \n', regr.coef_)
print('截距是: \n', regr.intercept_)

# # 查看均方误差
# print("Mean squared error: %.2f" % mean_squared_error(y_test, y_pred))
# # 解释方差分数:1是完美的预测
# print('Variance score: %.2f' % r2_score(y_test, y_pred))

plt.scatter(x_train, y,  color='black')
plt.scatter(x_test, y_test,  color='green')
# 回归直线用蓝色表示
plt.plot(x_train, regr.predict(x_train), color='blue', linewidth=3)
# 预测直线用红色表示
plt.plot(x_test, regr.predict(x_test), color='red', linewidth=3)
plt.xticks(())
plt.yticks(())
plt.show()
View Code

 

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression #导入机器学习库中的线性回归模块

data=pd.DataFrame({'square_feet':[150,200,250,300,350,400,600],
                   'price':[5450,6850,8750,9650,10450,13450,16450]})
#创建一组7行2列的数据,square_feet为房屋面积,price为对应价格

data_train=np.array(data['square_feet']).reshape(data['square_feet'].shape[0],1)#这里是将数据转化为一个1维矩阵
print(type(data_train))
print(data_train)
data_test=data['price']


#创建线性回归模型,拟合面积与价格并通过面积预测价格
regr=LinearRegression() #创建线性回归模型,参数默认
# 这里的fit()中的第一个参数必须是二维数组才行,否则报错
regr.fit(data_train,data_test)#拟合数据,square_feet将房屋面积作为x,price价格作为y;也可以理解用面积去预测价格
a=regr.predict([[268.5]])
print(a)#查看预测结果
print(regr.score(data_train,data_test))#查看拟合准确率情况,这里的检验是 R^2 ,趋近于1模型拟合越好
#预测的结果:268.5平的房子价格为8833.54, R^2 =0.967
#我们来画个图看一下数据最后是什么样的
plt.scatter(data['square_feet'],data['price']) #画散点图看实际面积和价格的分布情况
plt.plot(data['square_feet'],regr.predict(np.array(data['square_feet']).reshape(data['square_feet'].shape[0],1)),color='red') #画拟合面积与价格的线型图

plt.show()
View Code

参考:https://blog.csdn.net/Arwen_H/article/details/82181288

官网示例:

import matplotlib.pyplot as plt
import numpy as np
from sklearn import datasets, linear_model
from sklearn.metrics import mean_squared_error, r2_score

#加载糖尿病数据集
diabetes = datasets.load_diabetes()

#只使用一个特性
diabetes_X = diabetes.data[:, np.newaxis, 2]

# 将数据分为训练diabetes_X_train /测试集diabetes_X_test
diabetes_X_train = diabetes_X[:-20]
diabetes_X_test = diabetes_X[-20:]

# 把目标分成训练diabetes_y_train /测试集diabetes_y_test
diabetes_y_train = diabetes.target[:-20]
diabetes_y_test = diabetes.target[-20:]

#创建线性回归对象
regr = linear_model.LinearRegression()

#使用训练集训练模型
regr.fit(diabetes_X_train, diabetes_y_train)
print(diabetes_X_train)
#使用测试集进行预测
diabetes_y_pred = regr.predict(diabetes_X_test)

# 查看系数
print('Coefficients: \n', regr.coef_)
# 查看均方误差
print("Mean squared error: %.2f"
      % mean_squared_error(diabetes_y_test, diabetes_y_pred))
# 解释方差分数:1是完美的预测
print('Variance score: %.2f' % r2_score(diabetes_y_test, diabetes_y_pred))

#图输出
plt.scatter(diabetes_X_test, diabetes_y_test,  color='black')
plt.plot(diabetes_X_test, diabetes_y_pred, color='blue', linewidth=3)
plt.xticks(())
plt.yticks(())

plt.show()
View Code

 

posted on 2019-10-17 22:45  吃我一枪  阅读(172)  评论(0编辑  收藏  举报

导航