为数据选择合适的时序模型和预测方法
原始数据如下(data.csv):
由此可以得到特征值:
x1 | 社会从业人数 | X2 | 在岗职工工资总额 |
X3 | 社会消费零售总额 | X4 | 城镇居民人均可支配收入 |
X5 | 城镇居民人均消费性支出 | X6 | 年末总人口 |
X7 | 全社会固定资产投资额 | X8 | 地区生产总值 |
X9 | 第一生产值 | X10 | 税收 |
X11 | 居民消费价格指数 | X12 | 第三产业与第二产业产值比 |
X13 | 居民消费水平 | Y | 财政收入 |
一、数据分析
1、数据分析:
import numpy as np import pandas as pd inputfile = 'D:/ISS/anaconda/data/data.csv' # 输入的数据文件 data = pd.read_csv(inputfile) # 读取数据 # 描述性统计分析 description = [data.min(), data.max(), data.mean(), data.std()] # 依次计算最小值、最大值、均值、标准差 description = pd.DataFrame(description, index = ['Min', 'Max', 'Mean', 'STD']).T # 将结果存入数据框 print('描述性统计结果:\n',np.round(description, 2)) # 保留两位小数
结果如下:
2、相关性分析:
# 相关性分析 corr = data.corr(method = 'pearson') # 计算相关系数矩阵 print('相关系数矩阵为:\n',np.round(corr, 2)) # 保留两位小数
结果如下:
因此得到,居民消费价格指数即x11,对财政收入即y影响最小。
二、灰度预测算法与SVR算法
1、LASSO回归选取关键属性
import numpy as np import pandas as pd from sklearn.linear_model import Lasso inputfile = 'D:/ISS/anaconda/data/data.csv' # 输入的数据文件 data = pd.read_csv(inputfile) # 读取数据 lasso = Lasso(1000) # 调用Lasso()函数,设置λ的值为1000 lasso.fit(data.iloc[:,0:13],data['y']) print('相关系数为:',np.round(lasso.coef_,5)) # 输出结果,保留五位小数 print('相关系数非零个数为:',np.sum(lasso.coef_ != 0)) # 计算相关系数非零的个数 mask = lasso.coef_ != 0 # 返回一个相关系数是否为零的布尔数组 print('相关系数是否为零:',mask) mask = np.append(mask,True) outputfile ='D:/ISS/anaconda/data/new_reg_data.csv' # 输出的数据文件 new_reg_data = data.iloc[:, mask] # 返回相关系数非零的数据 new_reg_data.to_csv(outputfile) # print('输出数据的维度为:',new_reg_data.shape) # 查看输出数据的维度
结果如下:
利用Lasso回归方法识别影响财政收人的关键因素是社会从业人数(x1 )、 社会消费品零售总额(x3)、城镇居民人均可支配收人(x4)、 城镇居民人均消费性支出(x5)、年末总人口(x6)、全社会固定资产投资额(x7)、地区生产总值(x8)和居民消费水平(x13)。
灰色预测函数代码如下:
def GM11(x0): #自定义灰色预测函数 import numpy as np x1 = x0.cumsum() #1-AGO序列 z1 = (x1[:len(x1)-1] + x1[1:])/2.0 #紧邻均值(MEAN)生成序列 z1 = z1.reshape((len(z1),1)) B = np.append(-z1, np.ones_like(z1), axis = 1) Yn = x0[1:].reshape((len(x0)-1, 1)) [[a],[b]] = np.dot(np.dot(np.linalg.inv(np.dot(B.T, B)), B.T), Yn) #计算参数 f = lambda k: (x0[0]-b/a)*np.exp(-a*(k-1))-(x0[0]-b/a)*np.exp(-a*(k-2)) #还原值 delta = np.abs(x0 - np.array([f(i) for i in range(1,len(x0)+1)])) C = delta.std()/x0.std() P = 1.0*(np.abs(delta - delta.mean()) < 0.6745*x0.std()).sum()/len(x0) return f, a, b, x0[0], C, P #返回灰色预测函数、a、b、首项、方差比、小残差概率
使用SVR回归预测模型
import matplotlib.pyplot as plt from sklearn.svm import LinearSVR import pandas as pd inputfile = 'D:/ISS/anaconda/data/new_reg_data_GM11.xls' # 灰色预测后保存的路径 data = pd.read_excel(inputfile,index_col=0) # 读取数据 feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13'] # 属性所在列 #data_train = data.loc[range(1994,2014)].copy() # 取2014年前的数据建模 data_train = data.iloc[0:20].copy() # 取2014年前的数据建模 data_mean = data_train.mean() data_std = data_train.std() data_train = (data_train - data_mean)/data_std # 数据标准化 x_train = data_train[feature].values # 属性数据 y_train = data_train['y'].values # 标签数据 linearsvr = LinearSVR() # 调用LinearSVR()函数 linearsvr.fit(x_train,y_train) x = ((data[feature] - data_mean[feature])/data_std[feature]).values # 预测,并还原结果。 data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y'] outputfile = 'D:/ISS/anaconda/data/new_reg_data_GM11_revenue.xls' # SVR预测后保存的结果 data.to_excel(outputfile) print('真实值与预测值分别为:\n',data[['y','y_pred']]) fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*']) # 画出预测结果图 plt.show()
结果如下:
三、ARMA模型
import pandas as pd # 参数初始化 discfile = 'D:/ISS/anaconda/data/data.csv' # 读取数据 data = pd.read_csv(discfile) # 时序图 import matplotlib.pyplot as plt plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签 plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号 data.plot() plt.show() from statsmodels.graphics.tsaplots import plot_acf plot_acf(data['y']).show()
结果如下:
平稳性检验:
from statsmodels.tsa.stattools import adfuller as ADF print('原始序列的ADF检验结果为:', ADF(data['y']))
可知p值为1,数据不平稳。差分操作:
D_data = data.diff().dropna() feature = ['x1', 'x2', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x9', 'x10', 'x11', 'x12', 'x13', 'y'] # 属性所在列 D_data.columns = feature D_data.plot() # 时序图 plt.show() plot_acf(D_data['y']).show() # 自相关图 from statsmodels.graphics.tsaplots import plot_pacf plot_pacf(D_data['y'],lags=4).show() # 偏自相关图 print('差分序列的ADF检验结果为:', ADF(D_data['y'])) # 平稳性检测
结果:
进行白噪声检验:
from statsmodels.stats.diagnostic import acorr_ljungbox print('差分序列的白噪声检验结果为:', acorr_ljungbox(D_data['y'], lags=1)) # 返回统计量和p值 from statsmodels.tsa.arima_model import ARIMA
结果:
算法预测:
data['y'] = data['y'].astype(float) pmax = int(len(D_data)/10) # 一般阶数不超过length/10 qmax = int(len(D_data)/10) # 一般阶数不超过length/10 bic_matrix = [] # BIC矩阵 for p in range(pmax+1): tmp = [] for q in range(qmax+1): try: # 存在部分报错,所以用try来跳过报错。 tmp.append(ARIMA(data['y'], (p,1,q)).fit().bic) except: tmp.append(None) bic_matrix.append(tmp) bic_matrix = pd.DataFrame(bic_matrix) # 从中可以找出最小值 p,q = bic_matrix.stack().idxmin() # 先用stack展平,然后用idxmin找出最小值位置。 print('BIC最小的p值和q值为:%s、%s' %(p,q)) model = ARIMA(data['y'], (p,1,q)).fit() # 建立ARIMA(0, 1, 1)模型 print('模型报告为:\n', model.summary2()) print('预测未来2年,其预测结果、标准误差、置信区间如下:\n', model.forecast(2))
得到结果: