首页 > 解决方案 > 是否从 BertModel 中删除了 position_embeddings 函数?

问题描述

使用 Bert 和转换器运行代码时,出现此错误:

got an unexpected keyword argument 'position_embeddings'

错误出现的部分代码是这样的 -

from transformers import  BertModel

self.bert = BertModel.from_pretrained("bert-base-uncased")
text_embed = self.bert.embeddings.position_embeddings(text_positions)

text_positions 是输入

有人可以建议缺少什么。使用 pip install tr​​ansformers 安装了变压器

标签: bert-language-model

解决方案


推荐阅读