首页 > 解决方案 > 尽管我删除了变量,但 Colab RAM 在训练后几乎已满

问题描述

最近我正在使用 Google Colab GPU 来训练模型。训练结束后,我删除了用于训练的大变量,但我注意到 ram 仍然是满的。我想知道真正发生了什么,内存中到底有什么,我怎样才能在不重新启动的情况下释放内存?

标签: pythondeep-learninggoogle-colaboratoryram

解决方案


我不认为变量本身会占用太多内存。

如果你有选择,你可以试试 colab pro。然后,您将可以选择访问高内存 VM(请参见此处)。价格为 9.99 美元/月。

一个(可能不是很好)是使用较小的数据集。请注意,您的磁盘空间比 RAM 多得多。我所做的是将原始数据集分成几个较小的集合,然后用这些数据集训练神经网络。

另一种方法是检查您的代码,查找是否有一些变量存储大型数组但您只使用它们一次。然后您可以将这些变量设置为零或空列表。就像是:

a = np.load("a_very_large_array.npy")
foo(a) # use array a only here
a = []

推荐阅读