首页 > 解决方案 > 如何在不使用包的情况下将BERT模型下载到本地?

问题描述

公司防火墙似乎阻止我使用

model = AutoModel.from_pretrained("sentence-transformers/bert-base-nli-stsb-mean-tokens")

所以我需要在本地下载这个模型,然后读入Python。找不到直接的 AWS 链接,似乎通常采用这种形式:但没有用

https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-nli-stsb-mean-tokens-pytorch_model.bin

在这里尝试了这些类似的问题/解决方案,但没有奏效,因为我无法运行第一行从 Python 中预训练的下载,我需要一个外部解决方案

标签: pythonnlphuggingface-transformers

解决方案


你可以试试这个,例如:

from transformers import AutoTokenizer, TFAutoModel

tokenizer = AutoTokenizer.from_pretrained('bert-base-multilingual-uncased')
bert=TFAutoModel.from_pretrained('bert-base-multilingual-uncased')

tokenizer.save_pretrained("./models/tokenizer/")
bert.save_pretrained("./models/tokenizer/")

推荐阅读