将Prophet的预测结果作为特征输入到 LightGBM 模型中进行时序的预测
我们以前的关于使用机器学习进行时间序列预测的文章中,都是专注于解释如何使用基于机器学习的方法进行时间序列预测并取得良好结果。
但是在这篇文章将使用更高级的技术来预测时间序列,本文将使用 Prophet 来提取新的有意义的特征,例如季节性、置信区间、趋势等。
时间序列预测
一般情况下 LightGBM 模型都会使用一些lag的特征来预测未来的结果,这样做一般情况下能够取得很好的效果。 本文介绍一种新的思路:使用 Prophet 从时间序列中提取新特征,然后使用LightGBM 进行训练,可以得到更好的效果。 Prophet 模型的实际预测、置信区间的上限和下限、每日和每周的季节性和趋势等都可以作为我们的新特征。 对于其他类型的问题,Prophet 还可以帮助我们提取描述假日效果。
原始数据
我们的数据如下所示:
使用 Prophet 提取特征
我们特征工程的第一步非常简单。 我们只需要使用Prophet 模型进行预测:
def prophet_features(df, horizon=24*7):
temp_df = df.reset_index()
temp_df = temp_df[[‘datetime’, ‘count’]]
temp_df.rename(columns={‘datetime’: ‘ds’, ‘count’: ‘y’}, inplace=True)
take last week of the dataset for validation
train, test = temp_df.iloc[:-horizon,:], temp_df.iloc[-horizon:,:]
define prophet model
m = Prophet(
growth=’linear’,
seasonality_mode=’additive’,
interval_width=0.95,
daily_seasonality=True,
weekly_seasonality=True,
yearly_seasonality=False
)
train prophet model
m.fit(train)
extract features from data using prophet to predict train set
predictions_train = m.predict(train.drop(‘y’, axis=1))
extract features from data using prophet to predict test set
predictions_test = m.predict(test.drop(‘y’, axis=1))
merge train and test predictions
predictions = pd.concat([predictions_train, predictions_test], axis=0)
return predictions
上面的函数将返回一个给我们的 LightGBM 模型准备的新特征的DF:
使用 Prophet 特征训练 Autorregressive LightGBM
我们使用 Prophet 提取了新特征,下一步就是进行特征的合并和使用 LightGBM 进行预测:
def train_time_series_with_folds_autoreg_prophet_features(df, horizon=24*7, lags=[1, 2, 3, 4, 5]):
create a dataframe with all the new features created with Prophet
new_prophet_features = prophet_features(df, horizon=horizon)
df.reset_index(inplace=True)
merge the Prophet features dataframe with the our first dataframe
df = pd.merge(df, new_prophet_features, left_on=[‘datetime’], right_on=[‘ds’], how=’inner’)
df.drop(‘ds’, axis=1, inplace=True)
df.set_index(‘datetime’, inplace=True)
create some lag variables using Prophet predictions (yhat column)
for lag in lags:
df[f’yhat_lag_{lag}’] = df[‘yhat’].shift(lag)
df.dropna(axis=0, how=’any’)
X = df.drop(‘count’, axis=1)
y = df[‘count’]
take last week of the dataset for validation
X_train, X_test = X.iloc[:-horizon,:], X.iloc[-horizon:,:]
y_train, y_test = y.iloc[:-horizon], y.iloc[-horizon:]
define LightGBM model, train it and make predictions
model = LGBMRegressor(random_state=42)
model.fit(X_train, y_train)
predictions = model.predict(X_test)
calculate MAE
mae = np.round(mean_absolute_error(y_test, predictions), 3)
plot reality vs prediction for the last week of the dataset
fig = plt.figure(figsize=(16,6))
plt.title(f’Real vs Prediction – MAE {mae}’, fontsize=20)
plt.plot(y_test, color=’red’)
plt.plot(pd.Series(predictions, index=y_test.index), color=’green’)
plt.xlabel(‘Hour’, fontsize=16)
plt.ylabel(‘Number of Shared Bikes’, fontsize=16)
plt.legend(labels=[‘Real’, ‘Prediction’], fontsize=16)
plt.grid()
plt.show()
执行上述代码后,我们将合并特征df,创建滞后的lag值,训练 LightGBM 模型,然后用我们训练的模型进行预测,将我们的预测与实际结果进行比较。 输出将如下所示:
如果我们仔细观察结果我们的 MAE 为 28.665。这要比一般特征工程结果有很大的提高。
总结
将监督机器学习方法与 Prophet 等统计方法相结合,可以帮助我们取得令人印象深刻的结果。 根据我在现实世界项目中的经验,很难在需求预测问题中获得比这些更好的结果。
作者:Unai López Ansoleaga
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至22018681@qq.com 举报,一经查实,本站将立刻删除。