首页 > 解决方案 > SageMaker 从 TF 脚本模式 Python3 部署到 EIA

问题描述

我已经在 SageMaker 中安装了一个 Tensorflow Estimator,使用带有framework_version='1.12.0'和的脚本模式python_version='py3',使用 GPU 实例。

如果我也选择部署实例类型作为 GPU,则直接在此估算器上调用 deploy 即可。但是,如果我选择 CPU 实例类型和/或尝试添加加速器,则会失败并显示错误,即 docker 找不到要拉取的相应映像。

有人知道如何使用脚本模式在 GPU 上训练 py3 模型,然后部署到 CPU+EIA 实例吗?


我通过从估计器的训练工件创建 TensorFlowModel 然后从模型部署的中间步骤找到了部分解决方法,但这似乎不支持 python 3(同样,没有找到相应的容器)。如果我切换到 python_version='py2',它会找到容器,但无法通过健康检查,因为我的所有代码都是针对 python 3 的。

标签: python-3.xtensorflowamazon-ec2amazon-sagemakerdocker-pull

解决方案


不幸的是,目前没有 TF + Python 3 + EI 服务图像。如果您想使用 TF + EI,您需要确保您的代码与 Python 2 兼容。

编辑:在我最初写这个之后,对 TF + Python 3 + EI 的支持已经发布。在撰写本文时,我相信 TF 1.12.0、1.13.1 和 1.14.0 都支持 Python 3 + EI。有关完整列表,请参阅https://github.com/aws/sagemaker-python-sdk#tensorflow-sagemaker-estimators


推荐阅读