首页 > 解决方案 > 使用 docker 提供 tensorflow 服务我做错了什么?

问题描述

我正在尝试使用 docker 使用 REST API 进行 tensorflow 服务。我遵循 https://www.tensorflow.org/tfx/serving/dockerhttps://towardsdatascience.com/serving-keras-models-locally-using-tensorflow-serving-tf-2-x-的示例8bb8474c304e。我创建了一个简单的数字 mnist 分类器。我的模型的导出路径:

MODEL_DIR = 'digit_mnist/model_serving/'
version = 1
export_path = os.path.join(MODEL_DIR, str(version))

然后使用以下命令保存模型:

tf.keras.models.save_model(model,
                           export_path,
                           overwrite=True,
                           include_optimizer=True,
                           save_format=None,
                           signatures=None,
                           options=None)

当我运行时:

 sudo docker run -p 8501:8501 --mount type=bind,source=/artificial-neural-network/tensorflow_nn/digit_mnist/model_serving/1/,target=/models/model_serving -e MODEL_NAME=dmc -t tensorflow/serving

我收到此错误:

docker: Error response from daemon: invalid mount config for type "bind": bind source path does not exist: /artificial-neural-networks/tensorflow_nn/digit_mnist/model_serving/1/.

我的文件结构是这样的:

(venv) artificial_neural_networks/
    __init__.py
    pytorch_nn/
    tensorflow_nn/
        __init__.py
        digit_mnist/
            model_serving/
                1/
                    assets
                    variables/
                        variables.data-00000-of-00002
                        variables.data-00001-of-00002
                        variables.index
                    saved_model.pb
            __init__.py
            mnist.py

我在哪里做错事?我正在解决这个问题的第二天,所以任何帮助都将不胜感激。

标签: dockertensorflowtensorflow-serving

解决方案


推荐阅读