gpu - 如何在 H2O AutoML 中禁用 GPU
问题描述
当我使用 H2O AutoML 进行实验时,出现错误:“在抛出 'thrust::system::system_error' what():parallel_for failed: invalid resource handle 的实例后调用终止”。此错误消息来自XGBoost,这是因为超出了 GPU 限制。
在使用常规 XGBoost 时,我将 cuda 可见设备参数设置为空白以禁用 GPU。然而,这个论点似乎在 H2O AutoML - XGBoost 实现中被忽略了。
import os
os.environ["CUDA_VISIBLE_DEVICES"] = ""
目前,只有 xgboost可以在 H2O AutoML 中的 gpu 上运行。
有人知道如何在 H2O AutoML 中禁用 GPU 的问题吗?
作为一种解决方法,我暂时排除了 XGBoost 算法来运行我的实验。当我排除 XGBoost 但我不想放弃 XGBoost 的功能时,麻烦就过去了。
from h2o.automl import H2OAutoML
model = H2OAutoML(max_runtime_secs = 60*60*2, exclude_algos = ["XGBoost"])
解决方案
推荐阅读
- r - openxlsx Excel公式连续,如何为每列动态创建公式
- c# - 如何使用 C# 从 MS Project Rest api 读取纯文本?
- debian-jessie - Debian 10 上的 pdf2htmlEX 与 Drupal 一起使用
- c# - DoubleLinkedList C#删除最后两个元素
- python - 合并数据框的问题
- chart.js - ChartJs 工具提示高度选项不起作用
- html - 全角 div 不出现
- python - 将列的平均值设为 100,并按比例转换列中的其他值(Pandas Python)
- google-cloud-firestore - 调用服务函数时出现firebase错误
- javascript - 为什么我可以在 JavaScript / TypeScript 中声明变量之前使用它?