python-3.x - 部署 TensorFlow 对象检测模型和服务预测
问题描述
我在谷歌云平台的机器学习引擎上部署了一个 Tensorflow 对象检测模型。我遇到过建议使用 Tensorflow Serving + Docker 以获得更好性能的帖子。我是 Tensorflow 的新手,想知道提供预测的最佳方式是什么。目前,ml 引擎在线预测的延迟>50 秒。我的用例是用户使用移动应用上传图片并根据预测结果获得合适的响应。所以,我预计预测延迟会下降到 2-3 秒。我还能做些什么来加快预测速度?
解决方案
Google Cloud ML Engine 最近发布了对在线预测 (Alpha) 的 GPU 支持。我相信我们的产品可能会提供您正在寻找的性能改进。随意在这里注册:https ://docs.google.com/forms/d/e/1FAIpQLSexO16ULcQP7tiCM3Fqq9i6RRIOtDl1WUgM4O9tERs-QXu4RQ/viewform?usp=sf_link
推荐阅读
- regex - 编译错误:尝试从顶部 StackOverflow 答案运行代码时找不到方法或数据成员
- android - 从 Firebase 实时数据库 Android 解析数据时获取 null
- html - 如何使用从亮度到黑暗的颜色自动生成类?
- ios - 如何在 iPhone 上模拟低存储空间
- ssl - 无法在 Windows 10 的命令提示符/PowerShell 中更新或使用 pip
- python - 使用请求库 python 发出发布请求
- artifactory - 根据工件的年龄删除指定路径下工件中的工件
- wpf - Visual Studio 中可能损坏的缓存目录
- python-3.x - 使用 Python 进行特征工程
- javascript - 将 Javascript 数组转换回 JQuery 类型的对象