首页 > 解决方案 > 是否有可能进一步微调 BERT 模型的额外数据,用于拥抱脸库

问题描述

我已经在我使用的数据集上微调了 BERT 模型。但是当我查看结果时,我想在训练中添加额外的数据。我不想重新训练整个模型,因为我没有在 GPU 上运行需要很长时间。是否可以只提供新数据集并在微调模型之上?我为此使用了拥抱脸库。

标签: nlpbert-language-model

解决方案


我认为您正在寻找诸如再培训或增量培训之类的东西。您可以尝试creme使用相同的库: https ://github.com/MaxHalford/creme


推荐阅读