bert-language-model - 是否从 BertModel 中删除了 position_embeddings 函数?
问题描述
使用 Bert 和转换器运行代码时,出现此错误:
got an unexpected keyword argument 'position_embeddings'
错误出现的部分代码是这样的 -
from transformers import BertModel
self.bert = BertModel.from_pretrained("bert-base-uncased")
text_embed = self.bert.embeddings.position_embeddings(text_positions)
text_positions 是输入
有人可以建议缺少什么。使用 pip install transformers 安装了变压器
解决方案
推荐阅读
- gprs - 在SIM800上,“at+sapbr”命令与“at+cstt”、“at+ciicr”等有什么区别?
- c# - 如何将多个值与单个变量进行比较?
- javascript - 在正则表达式模式验证 JavaScript 中允许逗号后有空格
- javascript - React useCallback with debounce works with old value, how to get actual state value?
- mongodb - 如何调试 mongodb 慢速正则表达式查询?
- android - 无法构建 Android Cordova 项目(Ionic 5)
- javascript - 模块构建失败 - 导入后未找到 ESLint 配置
- powerbi - PowerBI/DAX - 总结组成员
- reactjs - React Native Require 循环被允许警告
- android - 从firebase到recyclerView按升序对日期进行排序