首页 > 解决方案 > 用于标记分类的 Huggingface DistilBert 不会提高训练期间的准确性

问题描述

我正在尝试重现 Huggingface 网站上可用的代码,以在我的自定义数据上实现 ner 模型。

我在 Google Colab 上尝试了以下代码:https ://colab.research.google.com/drive/1g7UCKDE9fXQpr90Q3AZDLGmVc9_tplRg?usp=sharing

它与在 hugginface 网站上找到的用于序列标记任务的代码完全相同,但正如您所见,在训练期间验证集的性能没有任何改善。

你有没有遇到过这个问题?你能给我一些提示吗?

标签: pythontensorflowhuggingface-transformers

解决方案


推荐阅读