首页 > 解决方案 > XGBoost 模型:在 GPU 上训练,在 CPU 上运行,无需分配 GPU RAM

问题描述

如何在 GPU 上训练 XGBoost 模型,但在 CPU 上运行预测而不分配任何GPU RAM

我的情况:我tree_method='gpu_hist'用 Python 在 Python 中创建了一个predictor='cpu_predictor'XGBoot模型(

我的问题:一旦模型开始进行预测,即使我在 CPU 上运行它,它仍然会分配少量的 GPU RAM(大约 289MB)。这是一个问题,原因如下:

那么,如何告诉 XGBoost 不分配任何GPU RAM 并仅使用 CPU 和常规 RAM 进行预测?

非常感谢您的帮助!

标签: pythongpucpuxgboostpredict

解决方案


推荐阅读