allennlp - 如何将 Bart 与 PretrainedTransformerEmbedder 一起使用?
问题描述
如果我encoder = PretrainedTransformerEmbedder(model_name, sub_module="encoder")
用作编码器传递给 Bart(encoder=encoder),它会报告错误,因为它没有实现get_input_dim()
,如果我encoder = PretrainedTransformerEmbedder(model_name, sub_module="encoder"), encoder = encoder.encoder
像这里提到的那样作为输入编码器传递,它会报告错误,因为PretrainedTransformerEmbedder(model_name, sub_module="encoder")
它没有属性encoder
。那么如何在 allennlp 中为 seq2seq 任务使用完整的 bart 模型(包括 token_embed、position_embed)?
解决方案
如果您只是通过encoder=None
(这是默认设置),Bart
模型将使用本机 BART 编码器。听起来这就是你想要的?
推荐阅读
- python - Python获取密码并验证while循环
- c++ - string::capacity/reserve() 是否计算终止为空?
- sdl - SDL_mixer 可以平移吗?
- ios - 如何将字符串元组分配给单元格的文本?
- flutter - 在 Google Play 商店上发布应用时出现 Flutter 问题
- hyperledger-fabric - 基础网络(Fabric Samples)中的channelID byfn-sys-channel是什么?
- java - 如何在 jFairy-Locale 组合中使用多种语言
- wordpress - 通过cpanel安装的Wordpress不起作用
- shell - 如果它们不匹配,如何从 awk 中选择两列并打印
- javascript - 当结果来自ajax时分页不起作用