deep-learning - 用于文本分类的预训练 BERT 基础
问题描述
我有一个推文语料库,我正在尝试使用 BERT 进行分类。我已经使用我的语料库成功地预训练了 BERT,它已经生成了检查点文件。现在我需要使用这个经过训练的新模型,并为其添加更多层。我尝试使用 keras_bert 中的“load_trained_model_from_checkpoint”函数,但失败并出现错误“cls/predictions/transform/dense/kernel not found in checkpoint”。谁能帮我修复这个错误。谢谢
解决方案
可能有一些关于如何使用基于这个库中预训练模型的预测的提示,lazy-text-predict!一般来说,它还可以帮助您实现文本分类器。
text='my text to classify'
model=BertForSequenceClassification.from_pretrained('/content/bert-base-uncased_model')
tokenizer=BertTokenizerFast.from_pretrained('bert-base-uncased')
text_classification= transformers.pipeline('sentiment-analysis',
model=model,
tokenizer=tokenizer)
y=text_classification(text)[0]
print(y)
推荐阅读
- vue.js - 为什么我不能使用 vue-konva 为太多或更多形状创建一层?
- python - 模板渲染期间出错:“ManyToOneRel”对象没有属性“attname”
- html - 如何在导航栏中使 div 居中(不带空格)
- oauth-2.0 - 移至 v2.0 权限后,同意提示不会询问在 AD App 中设置的所有权限
- css - 你如何防止相对容器内绝对定位的孩子溢出?
- angular - Angular 7 中的手风琴组件
- canvas - 如何从不同的 ObservableCollection 集合绑定到 ContentTemplate 中的每个画布?
- apache - .htaccess 如何隐藏 php 扩展名
- java - Recyclerview 构造函数不保存参数
- java - Spring ws 升级 java.lang.NoSuchMethodError: org.apache.ws.security.util.WSSecurityUtil.decodeAction(Ljava/lang/String;Ljava/util/List;)