python - 如何在 Python 中计算机器学习回归任务的预测区间
问题描述
我对 ML 和 DS 领域还很陌生,目前我从 2 天以来一直在苦苦挣扎,基本思想是说明我的预测的不确定性。我基于几个弱学习器和一个 xgboost 作为元学习器构建了一个集成模型,以预测给定时间段(例如 1 个月)内发票的预期付款日期,从而计算此期间的预期兑现。结果(预计付款天数)不是正态分布的。
现在,我正在为展示我的预测的不确定性而苦苦挣扎。我阅读了很多关于置信区间 (CI) 和预测区间 (PI) 的内容,根据我的理解,PI 应该是可行的方法。我想实现类似 statsmodels.ARIMA 或先知包中的内置函数:
如何计算我对测试集的预测和 Python 中新的未见数据的预测间隔?
解决方案
推荐阅读
- powershell - 数组中的PowerShell字符串变量到数组变量
- r - R:绘制具有 NA 值的图
- swift - AudioKit AKMusicTrack 不播放 MIDI
- angular - 我的 ionic3 代码在发出 http 请求时提示这些错误
- ios - 通过代码添加 UIView 时出现重叠问题
- linux - Linux内核模块:BUG:无法在0000000080cb7fb8处处理内核分页请求
- docker - 自托管注册表和 docker 中的自己的证书有什么风险?
- apache-spark - 无需读取整个表数据的 Spark DataFrame 示例
- c++ - Don't open terminal window while opening SDL window on OSX
- laravel - 不能用vue axios设置数据