首页 > 解决方案 > 使用自定义模型在 AWS Sagemaker 中运行烧瓶应用程序

问题描述

我在 AWS 和 Stackoverflow 上搜索过解决方案,但没有得到令人满意的答案。我有一个 Sagemaker 笔记本实例,我在其中构建了一个自定义模型(不是 sklearn/tf/torch),它将计算结果 csv 文件并将其保存在笔记本中。

现在我需要使用 csv 文件提供预测。输入是 id,输出是 csv 预先计算的结果。sagemaker “部署自定义模型”示例仅包括 sklearn/tf/torch 模型。

有没有办法创建一个模型端点,服务于来自 csv 文件的预先计算的预测?

标签: amazon-sagemaker

解决方案


您可以bring your own (BYO)在 sagemaker 中使用主题,这是不同用例的 git链接。在其中选择一个与您的用例接近的。在 predictor.py 文件中,您可以直接从 s3 获取预先计算的结果并使用端点提供它们。


推荐阅读