首页 > 解决方案 > 如何将通过“happytransformer”保存的模型部署到 AWS?

问题描述

问题如下:一个 GPT-NEO 模型离线微调并使用 Happy Transformers python 包保存,我在网上搜索了将其部署到 AWS 的正确方法,以便可以将其集成到网站中。

围绕这个主题的文档非常缺乏,除非我编写自己的 Pytorch 或 Tensorflow 模型,否则除了使用模型创建 Docker 容器并以某种方式将该容器部署到 AWS 并使用 Lambdas 提供服务之外,我还没有找到任何合理的解决方案。

当我的 TF / PT 模型包含需要提供的更高级别的类时,是否有任何适当的方法来解决这种情况?

标签: amazon-web-servicestensorflowdeploymentpytorchaws-code-deploy

解决方案


推荐阅读