pytorch - BertForTokenClassification 有额外的输出
问题描述
我正在使用 PyTorch 的 BertForTokenClassification 预训练模型进行自定义词标记(不是 NER 或 POS,但基本相同)。有 20 种不同的可能标签(使用 BIO 方案):9 个 B、9 个 I 和一个 O。尽管有 19 个可能的标签,但在 BERT 之上添加的前馈层有 20 个标签。我也使用过其他数据集,结果是一样的:输出总是比类数多一个。谁能告诉我这是为什么?
解决方案
我想到了。原因是因为我没有计入PAD
令牌。
推荐阅读
- python - Python 3.7:无法在 Windows 10 的 venv 中安装 gmpy2
- symfony - 带有 Symfony 4.4.1 的 Kayue\WordpressBundle:在链配置的命名空间 App\Entity 中找不到类 XXX
- .net-core - 无法加载类型 Confluent.Kafka.Serialization.StringDeserializer
- python - 如何将flask_mysqldb与蓝图一起使用
- object-detection - 对于 360p 和 1080p,更快的 R-CNN(基于冻结推理图 inception v2)的执行时间相同。这怎么可能?
- node.js - 无法启动 pnpm 脚本 - 错误:命令失败,退出代码为 1
- javascript - 具有身份验证的 Firebase 快照侦听器
- r - 闪亮的数据表只保留选定的行..错误:未实现这些类型的比较
- html - Safari上的滚动问题
- php - 如何在 PHP CI 中用 htaccess 替换 ?= 和 & 来自 url