python - AttributeError:模块转换器没有属性 TFGPTNeoForCausalLM
问题描述
我克隆了这个存储库/文档https://huggingface.co/EleutherAI/gpt-neo-125M
无论是在谷歌协作还是本地运行,我都会收到以下错误。我还使用它安装了变压器
pip install git+https://github.com/huggingface/transformers
并确保配置文件命名为 config.json
5 tokenizer = AutoTokenizer.from_pretrained("gpt-neo-125M/",from_tf=True)
----> 6 model = AutoModelForCausalLM.from_pretrained("gpt-neo-125M",from_tf=True)
7
8
3 frames
/usr/local/lib/python3.7/dist-packages/transformers/file_utils.py in __getattr__(self, name)
AttributeError: module transformers has no attribute TFGPTNeoForCausalLM
完整代码:
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("EleutherAI/gpt-neo-125M",from_tf=True)
model = AutoModelForCausalLM.from_pretrained("EleutherAI/gpt-neo-125M",from_tf=True)
变压器-cli 环境结果:
transformers
版本:4.10.0.dev0- 平台:Linux-4.4.0-19041-Microsoft-x86_64-with-glibc2.29
- Python版本:3.8.5
- PyTorch 版本(GPU?):1.9.0+cpu(假)
- TensorFlow 版本(GPU?):2.5.0(假)
- Flax 版本(CPU?/GPU?/TPU?):未安装(NA)
- Jax 版本:未安装
- JaxLib 版本:未安装
- 在脚本中使用 GPU?:
- 在脚本中使用分布式或并行设置?:
协作和本地都有 TensorFlow 2.5.0 版本
解决方案
尝试不使用from_tf=True
如下标志:
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("EleutherAI/gpt-neo-125M")
model = AutoModelForCausalLM.from_pretrained("EleutherAI/gpt-neo-125M")
from_tf
期望pretrained_model_name_or_path
(即第一个参数)是从中加载保存的 Tensorflow 检查点的路径。
推荐阅读
- arrays - 在 bash 数组中存储 awk 输出的问题
- vuejs2 - 发出的事件不由 Vue 2 中的父组件处理
- reactjs - Reactjs-通过axios向服务器发布新笔记后如何修复,渲染什么都不显示?
- c# - 如何解决“当我编写用于搜索的存储过程时”?
- java - 在这种情况下,多个 if 和 if-else 有什么区别?
- angular - mat-select 中的样式复选框具有多个选项
- python - Python - 使用 Ipyvolume 库在 x、y 和 z 轴上绘制不同颜色的问题
- javascript - clicklistener:如何让我的 mouselistener 记录每次点击给定按钮
- brightscript - 自动刷新从服务器拉取的 JSON 数据
- c# - MVC 控制器操作结果方法调用有效,但视图页面不出现