首页 > 解决方案 > 如何在 Python 中计算机器学习回归任务的预测区间

问题描述

我对 ML 和 DS 领域还很陌生,目前我从 2 天以来一直在苦苦挣扎,基本思想是说明我的预测的不确定性。我基于几个弱学习器和一个 xgboost 作为元学习器构建了一个集成模型,以预测给定时间段(例如 1 个月)内发票的预期付款日期,从而计算此期间的预期兑现。结果(预计付款天数)不是正态分布的。

现在,我正在为展示我的预测的不确定性而苦苦挣扎。我阅读了很多关于置信区间 (CI) 和预测区间 (PI) 的内容,根据我的理解,PI 应该是可行的方法。我想实现类似 statsmodels.ARIMA 或先知包中的内置函数: 在此处输入图像描述

如何计算我对测试集的预测和 Python 中新的未见数据的预测间隔?

标签: pythonmachine-learningdata-science

解决方案


推荐阅读