首页 > 解决方案 > 如何在 EC2 CUDA GPU 实例中释放分配的 GiB 内存

问题描述

我有一个p3.2xlarge实例,我在该实例上运行了几个实验,现在我想运行一个新实验(深度学习),我收到以下错误:

RuntimeError: CUDA out of memory. Tried to allocate 64.00 MiB (GPU 0; 15.78 GiB total capacity; 14.70 GiB already allocated; 34.44 MiB free; 14.76 GiB reserved in total by PyTorch)

我想知道是否有任何方法可以释放分配的内存以便我可以运行我的实验?释放记忆甚至是解决此类错误的方法吗?

标签: gpupytorch

解决方案


推荐阅读