python - Bert 模型在 google colab 上给出 CUDA 内存不足错误
问题描述
我在这里使用下面的教程来训练和测试一个 Bertsequenceclassifier 模型,在 google 协作平台上使用显卡。我已经能够在 140,000 个条目上使用最大序列长度 380 成功训练和测试小型数据集。当我尝试在最大序列长度上训练中等数据集时,仅 1 个 epoch 为 512,并且仅在 10000 个条目上,我得到一个 CUDA 内存不足错误。当我将最大序列长度更改为 400 时,它可以训练模型。
我想显然是文件的长度导致了这种情况,但任何人都可以准确解释为什么会发生这种情况以及是否有任何方法可以解决这个问题。谢谢
运行时错误:CUDA 内存不足。尝试分配 20.00 MiB(GPU 0;15.90 GiB 总容量;15.15 GiB 已分配;7.88 MiB 空闲;44.38 MiB 缓存)
解决方案
推荐阅读
- json - AWS Cloudformation-如何在 json/yaml 模板中处理字符串大写或小写
- python - 使用 groupby 的键创建另一列 pandas python
- vue.js - Vue - 将插槽传递给子组件
- firebase - 如何正确使用 FirebaseVisionImage.fromBytes(Android 和 Ios)?
- r - 在 ggplot 中自定义对数转换标签
- c - 内存重新排序示例
- android - 波纹效果在整行上不可见
- c# - .resource 文件是否有可视化编辑器
- django - 使用 makemigrations 创建数据表并在 Django 中迁移
- python - 根据随时间的匹配观察计算差异