gpu - 如何在 EC2 CUDA GPU 实例中释放分配的 GiB 内存
问题描述
我有一个p3.2xlarge
实例,我在该实例上运行了几个实验,现在我想运行一个新实验(深度学习),我收到以下错误:
RuntimeError: CUDA out of memory. Tried to allocate 64.00 MiB (GPU 0; 15.78 GiB total capacity; 14.70 GiB already allocated; 34.44 MiB free; 14.76 GiB reserved in total by PyTorch)
我想知道是否有任何方法可以释放分配的内存以便我可以运行我的实验?释放记忆甚至是解决此类错误的方法吗?
解决方案
推荐阅读
- laravel - 如何让用户在不登录 Laravel 网站的情况下将商品添加到购物车?
- uber-api - 关于在 Uber 中从 API 启用 POS 的说明
- java - 如何使用 Maven 依赖插件下载具有不同名称的 jar?
- reactjs - 具有多个位置的 Nginx 路由
- c# - 以编程方式侦听 SFTP 中的新文件并在 C# 中下载该文件
- opencv - 在opencv中添加视频的超链接
- python - 在 on_message 中捕获异常:[Errno 9] 错误的文件描述符
- javascript - 如何在列表项中设置类名
- android - 是否有一个 Flutter 库可以扫描 WIFI 网络并连接/断开这些网络,适用于 Android API 级别 28-30
- django - 如何转换
]> 到 python 中的“BME108”?