灰度预测+LinearSVR和AERIMA预测财政收入

一、灰度预测+LinearSVR

1、数据中显示有多种影响财政收入的因素,因此需要先筛选出影响相关性最大的因素。

复制代码
 1 import pandas as pd
 2 import numpy as np
 3 from sklearn.linear_model import Lasso
 4  
 5 inputfile = 'D:\ZNsmueven\Python/data.csv'  # 输入的数据文件
 6 data = pd.read_csv(inputfile)  # 读取数据
 7  
 8 lasso = Lasso(1000)  # 调用Lasso()函数,设置λ的值为1000
 9 lasso.fit(data.iloc[:,0:13],data['y'])
10 print('相关系数为:',np.round(lasso.coef_,5))  # 输出结果,保留五位小数
11 print('相关系数非零个数为:',np.sum(lasso.coef_ != 0))  # 计算相关系数非零的个数
12  
13 data = data.iloc[:, 0:13]
14  
15 mask = lasso.coef_ != 0  # 返回一个相关系数是否为零的布尔数组
16 outputfile ='D:\ZNsmueven\Python/new_reg_data.csv'  # 输出的数据文件
17 new_reg_data = data.iloc[:, mask]  # 返回相关系数非零的数据
18 new_reg_data.to_csv(outputfile)  # 存储数据
19 print('输出数据的维度为:',new_reg_data.shape)  # 查看输出数据的维度
复制代码

 

 

2、此时得到的新数据表new_reg_data.csv包含了重要影响因素的信息,利用该数据表和自定义灰色预测函数预测关键因素的数据

其中自定义灰色预测函数GM_fore:

复制代码
 1 def GM11(x0): #自定义灰色预测函数
 2   import numpy as np
 3   x1 = x0.cumsum() #1-AGO序列
 4   z1 = (x1[:len(x1)-1] + x1[1:])/2.0 #紧邻均值(MEAN)生成序列
 5   z1 = z1.reshape((len(z1),1))
 6   B = np.append(-z1, np.ones_like(z1), axis = 1)
 7   Yn = x0[1:].reshape((len(x0)-1, 1))
 8   [[a],[b]] = np.dot(np.dot(np.linalg.inv(np.dot(B.T, B)), B.T), Yn) #计算参数
 9   f = lambda k: (x0[0]-b/a)*np.exp(-a*(k-1))-(x0[0]-b/a)*np.exp(-a*(k-2)) #还原值
10   delta = np.abs(x0 - np.array([f(i) for i in range(1,len(x0)+1)]))
11   C = delta.std()/x0.std()
12   P = 1.0*(np.abs(delta - delta.mean()) < 0.6745*x0.std()).sum()/len(x0)
13   return f, a, b, x0[0], C, P #返回灰色预测函数、a、b、首项、方差比、小残差概率
复制代码
复制代码
 1 import matplotlib.pyplot as plt
 2 from sklearn.svm import LinearSVR
 3 import pandas as pd
 4 
 5 inputfile = 'D:\ZNsmueven\Python/new_reg_data.csv'  # 灰色预测后保存的路径
 6 data = pd.read_excel(inputfile)  # 读取数据
 7 feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13']  # 属性所在列
 8 #data_train = data.loc[range(1994,2014)].copy()  # 取2014年前的数据建模
 9 data_train = data.iloc[0:20].copy() # 取2014年前的数据建模
10 data_mean = data_train.mean()
11 data_std = data_train.std()
12 data_train = (data_train - data_mean)/data_std  # 数据标准化
13 x_train = data_train[feature].values  # 属性数据
14 y_train = data_train['y'].values # 标签数据
15 
16 linearsvr = LinearSVR()  # 调用LinearSVR()函数
17 linearsvr.fit(x_train,y_train)
18 x = ((data[feature] - data_mean[feature])/data_std[feature]).values  # 预测,并还原结果。
19 data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y']
20 outputfile = 'D:\ZNsmueven\Python/new_reg_data_GM11_revenue.xls'  # SVR预测后保存的结果
21 data.to_excel(outputfile)
22 
23 print('真实值与预测值分别为:\n',data[['y','y_pred']])
24 
25 fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*'])  # 画出预测结果图
26 plt.show()
复制代码

预测结果为:

 

 

 

二、ARIMA

1、时序图、自相关图、平稳性检验及差分

复制代码
 1 import pandas as pd
 2 # 参数初始化
 3 discfile = 'D:\ZNsmueven\Python/data.csv'
 4 # 读取数据
 5 data = pd.read_csv(discfile)
 6 # 时序图
 7 import matplotlib.pyplot as plt
 8 plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
 9 plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
10 data.plot()
11 plt.show()
12 # 自相关图
13 from statsmodels.graphics.tsaplots import plot_acf
14 plot_acf(data['y']).show()
15 # 平稳性检测
16 from statsmodels.tsa.stattools import adfuller as ADF
17 print('原始序列的ADF检验结果为:', ADF(data['y']))
18 # 返回值依次为adf、pvalue、usedlag、nobs、critical values、icbest、regresults、resstore
19 # 差分后的结果
20 D_data = data.diff().dropna()
21 feature = ['x1', 'x2', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x9', 'x10', 'x11', 'x12', 'x13', 'y']  # 属性所在列
22 D_data.columns = feature
23 D_data.plot()  # 时序图
24 plt.show()
25 plot_acf(D_data['y']).show()  # 自相关图
26 from statsmodels.graphics.tsaplots import plot_pacf
27 plot_pacf(D_data['y']).show()  # 偏自相关图
28 print('差分序列的ADF检验结果为:', ADF(D_data['y']))  # 平稳性检测
29 # 白噪声检验
30 from statsmodels.stats.diagnostic import acorr_ljungbox
31 print('差分序列的白噪声检验结果为:', acorr_ljungbox(D_data['y'], lags=1))  # 返回统计量和p值
复制代码

(1)时序图

 

(2)自相关图

 

 2、定阶

复制代码
 1 from statsmodels.tsa.arima_model import ARIMA
 2 # 定阶
 3 data['y'] = data['y'].astype(float) 
 4 pmax = int(len(D_data)/10)  # 一般阶数不超过length/10
 5 qmax = int(len(D_data)/10)  # 一般阶数不超过length/10 
 6 bic_matrix = []  # BIC矩阵
 7 for p in range(pmax+1):
 8   tmp = []
 9   for q in range(qmax+1):
10     try:  # 存在部分报错,所以用try来跳过报错。
11       tmp.append(ARIMA(data['y'], (p,1,q)).fit().bic)
12     except:
13       tmp.append(None)
14   bic_matrix.append(tmp)
15 
16 bic_matrix = pd.DataFrame(bic_matrix)  # 从中可以找出最小值
17 
18 p,q = bic_matrix.stack().idxmin()  # 先用stack展平,然后用idxmin找出最小值位置。
19 print('BIC最小的p值和q值为:%s、%s' %(p,q)) 
20 model = ARIMA(data['y'], (p,1,q)).fit()  # 建立ARIMA(0, 1, 1)模型
21 print('模型报告为:\n', model.summary2())
22 print('预测未来2年,其预测结果、标准误差、置信区间如下:\n', model.forecast(2))
复制代码

 

posted @   Ni__23  阅读(165)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?
点击右上角即可分享
微信分享提示