pytorch - 尽管有足够的可用内存,但 PyTorch GPU 内存不足
问题描述
我正在尝试使用 PyTorch 微调用于文本分类的 Transformers 语言模型。但是,我收到以下内存错误:
CUDA out of memory. Tried to allocate 578.00 MiB (GPU 2; 10.76 GiB total capacity; 2.79 GiB already allocated; 6.55 GiB free; 3.24 GiB reserved in total by PyTorch
我很困惑,因为根据错误消息我肯定有足够的内存。我还尝试在内存少一点的不同 GPU 上以及在数据少得多的 CPU 上训练模型来检查我的代码,并且两个版本都运行良好(但不能用于完整训练)。将批量大小设置为 16 时,它也已经适用于不同的 Transformers 模型。我还想避免进一步减小批量大小,因为我已经 16 岁了。有谁知道为什么会发生错误?提前致谢!
解决方案
推荐阅读
- listview - Flutter - 为每个 Listview 项目运行异步函数
- java - Alexa 技能创建 - 实时时 java.lang.NoSuchMethodError,但测试工作正常
- python - 查找源和目标之间的路径
- memory - 为什么会出现内存泄漏?
- javascript - 无需多次导入即可创建组件的多个实例
- vue.js - 从行vuejs计算百分比
- android - 如何从 Android 中的 ViewHolder 更改布局的颜色?
- swift - Swift - 使用 .addTarget 为 UITableViewCell 制作一个按钮
- python - 如何将这些数据框索引转换为列?
- validation - Symfony 4.1.4 - 验证注释 NotBlank 在编辑对象数据时不起作用,但在添加新对象时起作用