python - 当我在使用 Dask-ML 时不断超出使用的内存时我该怎么办
问题描述
我正在使用 Dask-ML 运行一些代码,这些代码在训练期间使用了相当多的 RAM 内存。训练数据集本身并不大,但它在训练期间使用了相当多的 RAM 内存。即使我尝试使用不同的值,我仍然收到以下错误消息n_jobs
:
distributed.nanny - WARNING - Worker exceeded 95% memory budget. Restarting
我能做些什么?
Ps:我也尝试过使用 Kaggle Kernel(它允许高达 16GB 的 RAM),但这没有用。所以我现在正在尝试 Dask-ML。我也只是使用其默认参数值连接到 Dask 集群,代码如下:
from dask.distributed import Client
import joblib
client = Client()
with joblib.parallel_backend('dask'):
# My own codes
解决方案
Dask 有一个关于帮助内存管理的技术的详细页面。您可能还对配置溢出到磁盘 Dask 工作人员感兴趣。例如,宁可
推荐阅读
- linux - nginx 工作进程更好地为单个 cpu 提供 1 个或多个进程?
- python - 当我运行此代码时,我得到了无效的语法,并突出显示了 p_desc
- vb.net - 计算文件中某个名称之后的名称数量?
- php - 如何访问对象中的动态属性?
- python - 需要将列表中的十六进制值视为 int 以使用 bin() 进行计算。我错过了什么?
- ios - 有没有办法以编程方式从 ios 应用商店下载应用程序
- python - 稀疏输入的 KNeighborsClassifier 中使用的算法?
- android - 如何仅更新 Android 中现有 Json 对象中对象的非空 Json 字段
- php - 如何在 WebApp(PHP、Google API)中使用 Google Drive Files
- mysql - 如何根据通过的标准在一行中自行加入表并显示有限数量的结果