前言
- LSTM 航空乘客预测单步预测的两种情况。 简单运用LSTM 模型进行预测分析。
- 加入注意力机制的LSTM 对航空乘客预测采用了目前市面上比较流行的注意力机制,将两者进行结合预测。
- 多层 LSTM 对航空乘客预测 简单运用多层的LSTM 模型进行预测分析。
- 双向LSTM 对航空乘客预测双向LSTM网络对其进行预测。
- MLP多层感知器 对航空乘客预测 使用MLP 对航空乘客预测
- CNN + LSTM 航空乘客预测采用的CNN + LSTM网络对其进行预测。
- ConvLSTM 航空乘客预测采用ConvLSTM 航空乘客预测
- LSTM的输入格式和输出个数说明 中对单步和多步的输入输出格式进行了解释
前面都是单步预测,本文采用LSTM网络多步进行预测。
我喜欢直接代码+ 结果展示 先代码可以跑通,才值得深入研究每个部分之间的关系;进而改造成自己可用的数据。
程序
简化版
# 单变量,多步预测
# 第一种方法尝试
import pandas as pd
import numpy as np
import matplotlib.pylab as plt
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import LSTM
from keras.layers import Dropout
from sklearn.preprocessing import MinMaxScaler
from sklearn.metrics import mean_squared_error
from sklearn.metrics import mean_absolute_error
from math import sqrt
#读取数据
data = read_csv('airline-passengers.csv', usecols=[1], engine='python')
dataf = data.values
def create_dataset(dataset, timesteps=4,predict_size=2):#构造数据集
datax=[]#构造x
datay=[]#构造y
for each in range(len(dataset)-timesteps - predict_steps):
x = dataset[each:each+timesteps,0]
y = dataset[each+timesteps:each+timesteps+predict_steps,0]
datax.append(x)
datay.append(y)
print('X: %s, Y: %s' % (x, y))
return datax, datay#np.array(datax),np.array(datay)
# 划分训练集和测试集
scaler = MinMaxScaler(feature_range=(0,1))
dataf = scaler.fit_transform(dataf)
train_size = int(len(dataf) * 0.8)
test_size = len(dataf) - train_size
train, test = dataf[0:train_size,:], dataf[train_size:len(dataf),:]
print("训练集大小:", train_size )
print("测试集大小:", test_size )
# 构造训练集
timesteps = 1 #构造x,为1个数据,表示每次用前1数据作为一段
predict_steps = 2 #构造y,为2个数据,表示用后2个数据作为一段
trainx, trainy = create_dataset(train, timesteps, predict_steps)
trainx = np.array(trainx)
trainy = np.array(trainy)
#变换
trainx = np.reshape(trainx,(trainx.shape[0],1,trainx.shape[1]))#变换shape,以满足keras
print("trainx的形状:", train.shape)
# 构造测试集
# timesteps = 2#构造x,为4个数据,表示每次用前4个数据作为一段
# predict_steps = 2 #构造y,为2个数据,表示用后2个数据作为一段
testx, testy = create_dataset(test, timesteps, predict_steps)
testx = np.array(testx)
testy = np.array(testy)
#变换
testx = np.reshape(testx,(testx.shape[0],1,testx.shape[1]))#变换shape,以满足keras
#lstm training
model = Sequential()
model.add(LSTM(32,input_shape=(timesteps,1)))
model.add(Dense(predict_steps))
model.compile(loss="mean_squared_error",optimizer="adam")
model.fit(trainx,trainy, epochs= 10, batch_size=1)
#predict
print("Test:",testx)
predict_y = model.predict(testx)
# 反标准化数据 --- 目的是保证MAE的准确性
predict_y = scaler.inverse_transform(predict_y)
testy = scaler.inverse_transform(testy)
testy = np.array(testy)
print("Testy:",testy)
print("Predict_y:",predict_y)
for i in range(predict_steps):
actual = [row[i] for row in testy]
predicted = [predict[i] for predict in predict_y]
rmse = sqrt(mean_squared_error(actual, predicted))
print('t+%d RMSE: %f' % ((i + 1), rmse))
print("MAE:")
for i in range(predict_steps):
actual = [row[i] for row in testy]
predicted = [predict[i] for predict in predict_y]
mae = mean_absolute_error(actual, predicted)
print('t+%d MAE: %f' % ((i + 1), mae))
结果展示
t+1 RMSE: 54.445975
t+2 RMSE: 87.239707
MAE:
t+1 MAE: 46.089931
t+2 MAE: 73.737037
总结
也找到过比较麻烦的一版代码,还是觉得简洁一些更好点。 需要进一步研究的话,可以深入的探索一番。
|