python - 如何在不使用包的情况下将BERT模型下载到本地?
问题描述
公司防火墙似乎阻止我使用
model = AutoModel.from_pretrained("sentence-transformers/bert-base-nli-stsb-mean-tokens")
所以我需要在本地下载这个模型,然后读入Python。找不到直接的 AWS 链接,似乎通常采用这种形式:但没有用
https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-nli-stsb-mean-tokens-pytorch_model.bin
在这里尝试了这些类似的问题/解决方案,但没有奏效,因为我无法运行第一行从 Python 中预训练的下载,我需要一个外部解决方案
解决方案
你可以试试这个,例如:
from transformers import AutoTokenizer, TFAutoModel
tokenizer = AutoTokenizer.from_pretrained('bert-base-multilingual-uncased')
bert=TFAutoModel.from_pretrained('bert-base-multilingual-uncased')
tokenizer.save_pretrained("./models/tokenizer/")
bert.save_pretrained("./models/tokenizer/")
推荐阅读
- airflow - 定义 Airflow DAG 任务排序的正确方法
- flutter - Flutter - 辅助复杂的小部件布局
- python - 我应该使用哪个 API 来访问 Python 中 kubernetes-client 的 V2beta2PodsMetricStatus 模型?
- javascript - 单页中的boostrap问题
- python - 在 {% for %} Django 模板继承中嵌套 {% block %}
- javascript - 如何使 PWA 添加到屏幕按钮在 Safari 和 Android 浏览器上工作?
- opencv - AttributeError:模块'cv2.cv2'没有属性'face'
- javascript - 避免在 MVC 中保存过程后重新加载页面
- java - 循环接受一次输入,对于第二次和连续运行,它会跳过输入但打印给定的语句
- security - 松弛的 webhook 如何安全?