mlflow - MLflow 部署可能性之间的差异
问题描述
在决定如何从 MLflow 提供模型时,有人可以解释一下主要用例是什么:
- 使用命令行“mlflow 模型服务 -m ....”
- 使用相同模型部署本地 Docker 容器
- 在线部署模型,例如在 AWS Sagemaker 上
我主要对选项 A 和 B 之间的差异感兴趣,因为据我了解,两者都可以作为 REST API 端点进行访问。我假设如果网络规则到位,那么两者都可以在外部调用。
解决方案
推荐阅读
- testing - 是否可以使用 ansible playbook 禁用保险库?
- python - 试图理解 tkinter 中的多线程
- http - 如何在 HTTPS 网页中显示 HTTP 内容
- pandas - 从 unix 框中读取 .zip 文件后如何返回 Pandas 数据框
- reactjs - 如何将 MockedProvider 用于与 compose HOC 一起使用的依赖查询?
- python - 在删除某些列时将 CSV 转换为 JSON
- c - 从输入文件中获取整数的最佳方法
- c++ - 如何解决向量和 T* 的问题
- jquery - jQuery读取复杂的表结构
- php - 如何将最大表单提交计数修复为 3