amazon-web-services - 如何将通过“happytransformer”保存的模型部署到 AWS?
问题描述
问题如下:一个 GPT-NEO 模型离线微调并使用 Happy Transformers python 包保存,我在网上搜索了将其部署到 AWS 的正确方法,以便可以将其集成到网站中。
围绕这个主题的文档非常缺乏,除非我编写自己的 Pytorch 或 Tensorflow 模型,否则除了使用模型创建 Docker 容器并以某种方式将该容器部署到 AWS 并使用 Lambdas 提供服务之外,我还没有找到任何合理的解决方案。
当我的 TF / PT 模型包含需要提供的更高级别的类时,是否有任何适当的方法来解决这种情况?
解决方案
推荐阅读
- excel - 如何在 VBA 的新工作簿中为复制的工作表的名称添加数字
- html - 使用 Bootstrap 列表组在中间休息时水平移动
- in-app-purchase - IOS:Auto Renewable In App Purchase服务器到服务器通知解析问题
- javascript - 为什么我不能在 ReactJS 中从我的 JSON 文件中检索数据?
- julia - 为什么数组广播比 Julia 中的矩阵求逆要慢得多?
- apache - Tomcat - 通过虚拟主机的每个请求的会话 ID 更改
- r - R如何导入带有特殊字符的excel文件
- discord.py - 如何为使用 python 制作的不和谐机器人制作 GUI 界面?
- python - How to fix "attribute error" when using pygame
- android - 当它隐藏在另一个片段中时,以编程方式在 CoordinatorLayout 中显示 BottomNavigationView